inteligencia artificial

En 2017 el proyecto estrella con el cual se presentó Watson al mundo, la búsqueda de mejores tratamientos contra el cáncer, estaba en quiebra. Tan solo seis años después de que el famoso ordenador basado en Inteligencia Artificial ganase el concurso Jeopardy enfrentándose a los más duros rivales, IBM perdía uno de sus principales sponsors, el MD Anderson Cancer Center, después de haberse gastado más de 60 millones de dólares en menos de 3 años sin conseguir un solo resultado significativo.

Sin embargo, el MD Anderson, lejos de rechazar la I.A. confesó haber descubierto una nueva generación de herramientas “altamente compleja, arriesgada y estratégica” para el futuro del centro.  Su inversión sigue aún hoy en día en este santo grial conocido como computación cognitiva.

Los orígenes

La Inteligencia Artificial tiene su origen alrededor de los años 60, cuando nuevas técnicas matemáticas de análisis estadístico predictivo muestran una capacidad potencial para convertirse en algoritmos, capaces de ser ejecutados por un ordenador. Los ordenadores, desde su esbozo original, como arquitectura de von Neumann, llamada así en honor su inventor el matemático John von Neumann, son máquinas diseñadas para aplicar procedimientos de manera implacable. Esos procedimientos son simplemente pasos en la resolución de un problema. Von Neumann estableció en 1945 que, si un problema podía despedazarse en sencillos pasos para su resolución, se podía diseñar una máquina de propósito genérico capaz de ejecutar esos pasos en un tiempo finito y resolver el problema.

En general, los ordenadores siguen conservando este mismo axioma desde hace ya más de 70 años y la dificultad reside en nuestro análisis del problema, como programadores, que conseguimos aportar a la computadora la solución en pasos simples para ser ejecutada. Los problemas se han vuelto cada vez más grandes gracias a que las máquinas son cada vez más rápidas, pero es obvio que esta aproximación presenta limitaciones claras: ¿cómo consigo que un ordenador resuelva un problema del que desconozco su solución?

Volviendo al siglo pasado, las matemáticas están avanzando a pasos agigantados en el campo de la predicción. Además del razonamiento por lógica formal, los algoritmos genéticos o las redes neuronales artificiales irrumpen con aproximaciones innovadoras inspiradas en la evolución biológica (mutar y recombinar) o el cerebro humano (comunicación entre neuronas). Por primera vez podemos enseñar a un ordenador explorar soluciones sin definirle adecuadamente el problema.

El Machine Learning

Este es el principio básico de la Inteligencia Artificial: la programación no explicita del mismo. Es decir resolver un problema sin tener que explicar detalladamente cómo. Estas primeras escaramuzas llegan hasta hoy en día, son el ya conocido Machine Learning o algoritmos de “aprendizaje” automático. Machine Learning es una estrategia de Inteligencia Artificial que combina optimización matemática y estadística computacional para la predicción de escenarios. Este aprendizaje puede ser “asistido” (una persona se encarga de validar los resultados y alimentar con ejemplos el sistema) o autónomo. Este último caso se conoce como Deep Learning o aprendizaje profundo y es muy útil cuando la información está fácilmente accesible.

Google utiliza algoritmos de Deep Learning para aprender a mejorar sus resultados de búsqueda. Desde enseñar a reconocer imágenes para poder buscarlas por palabras hasta proteger los derechos de autor en los videos de YouTube

IBM Watson es una de las mayores y más potentes implementaciones de algoritmos de Machine Learning existentes a nivel mundial en manos de un fabricante de tecnología.  Y como contamos al principio del artículo, IBM ha descubierto dolorosamente que, en este caso, el tamaño no es suficiente para garantizar el éxito.

No es casualidad que Big Data y Machine Learning sean términos que se asocien habitualmente. Sin embargo, el manejo de grandes volúmenes de datos no se considera parte del campo de la Inteligencia Artificial. Entonces, ¿por qué esta relación?  Los algoritmos matemáticos que sustentan el Aprendizaje Automático pueden fallar dramáticamente si los datos que analizan están sesgados o son insuficientes.

Aunque cada caso es diferente, imaginemos que queremos entrenar a una I.A. basada en puro Machine Learning, para reconocer el contenido de los correos de las reclamaciones de nuestros clientes. Sigamos imaginando un escenario simplista en que nuestros usuarios “solo” pueden quejarse sobre 10 temas concretos, siendo este el número mágico de casos posibles que tiene que dilucidar nuestra I.A. Lo habitual, en este escenario, es que nuestro proveedor nos pida entre 40.000 y 50.000 ejemplos para empezar el “entrenamiento” de nuestra máquina maravillosa. No es difícil imaginar las dificultades de dicha tarea.

La Computación Cognitiva

Con el paso de los años, la Inteligencia Artificial se ha abierto a nuevos enfoques para compensar el corsé impuesto por los algoritmos matemáticos y la sensibilidad a los datos. Actualmente, la computación cognitiva es la estrella. Pero… ¿qué es exactamente? Lo primero es que es un enfoque holístico, es decir, no cree en el “divide y vencerás”. El holismo es un principio por el cual se considera que el sistema completo se comporta de un modo distinto que la suma de sus partes. Es como si para entender una persona pensáramos que basta con entender su nariz, sus orejas, sus pies y luego juntar nuestras conclusiones. La manera correcta es analizar los eventos desde el punto de vista de las múltiples interacciones que los caracterizan, analizar el todo.

Para ello la computación cognitiva diseña plataformas que aprovechan las herramientas de la inteligencia artificial, incluido el Machine Learning y el procesamiento del lenguaje natural, para complementar y aumentar la capacidad humana de análisis. Ya no estamos frente a un complejo y oscuro algoritmo matemático, ahora nuestro afán es replicar la capacidad de razonamiento humana, el proceso cognitivo.

En el MD Anderson experimentaron con este enfoque tecnológico para entender sus beneficios y lo hicieron en procesos menores o menos críticos. Así, rápidamente pusieron a una I.A. al cargo de entender y optimizar las recomendaciones de hoteles y restaurantes para familiares de pacientes, predecir que pacientes podían necesitar ayuda para pagar las facturas del tratamiento, y otro sin fin de problemas, sobre todo relacionados con los departamentos de gestión o de IT. El resultado fue muy prometedor. Los nuevos procesos basados en I.A. cognitiva han contribuido a una mayor satisfacción del paciente y su entorno, un mejor desempeño financiero y una disminución en el tiempo dedicado a la entrada tediosa de datos por parte de los administradores de atención del hospital. Beneficios claros y directos resultado de una baja inversión que contrastan claramente con las experiencias en la I.A. más tradicional.

El futuro

El contraste entre los dos escenarios es común en el mundo empresarial. Nadie duda que la I.A. es una tecnología transformadora, pero cada vez está más claro que los cambios se producirán orientados a la eficiencia del modelo productivo. La revolución industrial no inventó el zapato, pero ayudó a democratizarlo al abaratar sus costes y masificar su producción. Las imágenes de niños descalzos quedaron en el pasado y, en general, la calidad de vida aumentó.  La I.A. será transformadora en tanto en cuanto democratizará igualmente cientos de productos y servicios que dependen en estos momentos de la aplicación de un criterio de análisis y decisión.

El seguro como producto de consumo está fuertemente ligado a hechos vitales: comprar una casa, un coche, formar una familia, viajar al extranjero… Imaginemos una I.A. que, de manera personalizada, analiza nuestra vida como un continuo y no como una simple sucesión de cambios. Una I.A. que mide el riesgo personalizado y me ofrece en cada momento una alternativa de manera proactiva. Una cobertura personalizada. La democratización del microseguro

¿Cómo proteger una marca personal, un coche autónomo, el dron de un fotógrafo profesional? El futuro está aquí y las herramientas tradicionales se muestran escasas para mantenernos a la saga de los avances en la sociedad. No cabe duda de que nos demandan más. La buena noticia es que por primera vez en mucho tiempo tenemos un gran aliado de nuestra parte. ¡Bienvenidos al futuro!

Global Summit for Insurance Innovation

logo_global_summit-1Global Summit for Insurance Innovation #GSII18 prepara su cuarta edición en un momento en el que realidades como IoT, Inteligencia Artificial, Blockchain, Machine Learning… entran de lleno en el sector asegurador, mientras nuevos actores como las Insurtech, ganan terreno y protagonismo con sus ideas, proyectos y desafíos vinculados a esta nueva realidad, en la que la tecnología vuelve a ser la principal protagonista.

Desde Expert System participaremos en el #GSII18 con la ponencia ‘La IA es la nueva revolución’. Más información, en la página web del evento.

by Alberto Robles, CEO de Expert System

Dejar respuesta

Please enter your comment!
Please enter your name here