Abstracción Razonamiento Problema corpus

Esto es lo que impide que la IA alcance un entendimiento humano

El breve extracto a continuación de la película de 1938 La Femme du Boulanger (The Baker’s Wife) describe ingeniosamente cómo la mente humana puede extraer un significado profundo de las experiencias de la vida y las situaciones percibidas. En la película, dirigida por Marcel Pagnol, el panadero Aimable le da la bienvenida a su esposa Aurelie, quien acaba de regresar después de huir con un pastor días antes.

Mientras Aimable trata a Aurelie con palabras dulces y un pan en forma de corazón (que había horneado para sí mismo), no muestra amabilidad hacia Pomponette, su gata que casualmente regresa a casa al mismo tiempo que Aurelie, después de abandonar a su compañero Pompon por un chat de gouttière (gato callejero). Aimable llama a Pomponette ordur (basura) y un salope (un término grosero) que se ha escapado con un inconnu (un don nadie) y bon-a-rien (bueno para nada) mientras que el pobre Pompon la ha estado buscando miserablemente en todas partes.

Mientras Aimable corta al gato a su tamaño con sus latigazos, Aurelie se encoge en su asiento y comienza a sollozar.

"¿Qué tiene él mejor que (Pompon)?" Aimable pregunta. "Rien (nada) ”, responde Aurelie con voz temblorosa, apenas por encima de un susurro. No está claro si ella está hablando del gato callejero callejero o del niño pastor.

"Tu dices rien, ”Aimable le dice a su esposa con una voz dulce y suave. "Pero si ella pudiera hablar", dice, su voz volviéndose severa de nuevo cuando vuelve a mirar a Pomponette, "si no tenía vergüenza, si no temía el dolor pauvre Pompon, ella diría, "Él es más bonito". De nuevo, hay muchos significados y acusaciones ocultos en sus palabras.

Mientras Aimable sigue divagando, aparentemente ajeno a la reacción de su esposa, Pomponette comienza a beber leche del cuenco de Pompon. Y ahí es donde conduce la daga. "Mira allí", dice. “Por eso regresó. Tenía frío y hambre ”.

Mientras tanto, Aurelie sostiene el pan en forma de corazón que Aimable había horneado, para sí mismo.

La mayoría de los humanos pueden extraer los significados profundos, las metáforas y los intrincados matices ocultos en los marcos de imágenes escamosas en escala de grises y las ruidosas ondas de sonido de esta secuencia de video. Podemos empatizar con Aimable y Aurelie (y asignarlas a nuestras propias experiencias de vida anteriores).

Pero la tecnología de inteligencia artificial más avanzada que tenemos hoy, nuestra mejor imitación del cerebro, en el mejor de los casos puede ver personas y rostros, detectar géneros y objetos y proporcionar descripciones muy básicas, como "una pareja cenando en una mesa".

Esto es solo un vistazo a la capacidad de la mente humana para comprender el mundo, y cuán gran desafío sigue siendo su replicación después de seis décadas de investigación de inteligencia artificial.

"Los humanos son capaces de" comprender realmente "las situaciones que enfrentan, mientras que incluso los sistemas de IA más avanzados de la actualidad aún no tienen una comprensión humana de los conceptos que estamos tratando de enseñarles", escribe un científico de la computación y un investigador de IA. Melanie Mitchell en ella último trabajo para Revista AI.

En su artículo, Mitchell, quien también es profesora en el Instituto Santa Fe y autora de libro reciente sobre inteligencia artificial, analiza las luchas de los sistemas actuales de IA, a saber aprendizaje profundo, al extraer significado de la información que procesan.

El aprendizaje profundo es muy bueno para descubrir correlaciones entre toneladas de puntos de datos, pero cuando se trata de profundizar en los datos y formar abstracciones y conceptos, apenas rascan la superficie (incluso eso podría ser una exageración). Tenemos sistemas de inteligencia artificial que pueden ubicar objetos en imágenes y convertir audio a texto, pero ninguno que pueda empatizar con Aurelie y apreciar su malestar cuando su esposo ataca a Pomponette. De hecho, nuestro Los sistemas de IA comienzan a romperse tan pronto como se enfrentan a situaciones que son ligeramente diferentes de los datos en los que han recibido capacitación.

Algunos científicos creen que tales límites se superarán a medida que escalar sistemas de aprendizaje profundo con redes neuronales más grandes y conjuntos de datos más grandes. Pero, sospecha Mitchell, podría faltar algo más fundamental.

En 2018, Mitchell ayudó a organizar un taller de tres días en el Instituto Santa Fe titulado "Inteligencia artificial y la barrera del significado". El taller exploró conceptos como qué es "significado" y "comprensión", cómo extraer el significado de los datos y la experiencia, y cómo la comprensión de situaciones puede ayudar a crear sistemas de inteligencia artificial que pueden generalizar sus habilidades y son más robustos a los cambios en su entorno.

El resultado del taller, que Mitchell comparte en su artículo, da algunas instrucciones sobre cómo podemos hacer sistemas de IA más confiables en el futuro.

La IA carece de habilidades innatas

<img class="alignnone size-full wp-image-4963 jetpack-lazy-image jetpack-lazy-image–handled lazy" alt="Mente humana vs inteligencia artificial "width =" 696 "height =" 487 "data-attach-id =" 4963 "data-permalink =" https://bdtechtalks.com/2019/06/05/mit-ibm-hybrid- ai / mind-over-digit / "data-orig-file =" https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?fit=2520% 2C1764 & ssl = 1 "data-orig-size =" 2520,1764 "data-comments-abrir =" 1 "data-image-meta =" {"apertura": "0", "crédito": "Andrew Ostrovsky", " camera ":" "," caption ":" Collage de cabeza humana, dígitos y varios elementos abstractos sobre el tema de inteligencia artificial, ciencia moderna, tecnología informática y mente humana y artificial "," created_timestamp ":" 1325764522 "," copyright ":" (C) 2011 Andrew Ostrovsky "," focal_length ":" 0 "," iso ":" 0 "," shutter_speed ":" 0 "," title ":" Mind Over Digit "," orientación ":" 1 "}" data-image-title = "Mente humana vs inteligencia artificial" data-image-description = "" data-medium-file = "https://i0.wp.com/bdtechtalks.com/wp-content/ uploads / 2019/06 / artificial-intelligence.jpg? fit = 300% 2C210 & ssl = 1 "datos grandes -file = "https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?fit=696%2C487&ssl=1" data-recalc-dims = "1 "data-lazy-loaded =" 1 "src =" https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=696%2C487&ssl=1 "data-lazy =" true "srcset =" https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?w=2520&ssl=1 2520w, https: //i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=300%2C210&ssl=1 300w, https://i0.wp.com/bdtechtalks.com /wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=768%2C538&ssl=1 768w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/ artificial-intelligence.jpg? resize = 1024% 2C717 & ssl = 1 1024w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=100%2C70&ssl = 1 100w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=696%2C487&ssl=1 696w , https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=1068%2C748&ssl=1 1068w, https://i0.wp.com/ bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?resize=600%2C420&ssl=1 600w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019 /06/artificial-intelligence.jpg?resize=1920%2C1344&ssl=1 1920w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?w= 1392 & ssl = 1 1392w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/06/artificial-intelligence.jpg?w=2088&ssl=1 2088w "/>

Al igual que el término "inteligencia artificial", las nociones de "significado" y "comprensión" son difíciles de definir y medir. Por lo tanto, en lugar de tratar de dar a los términos una definición formal, los participantes en el taller definieron una lista de "correlatos", habilidades y destrezas estrechamente vinculadas a nuestra capacidad para comprender situaciones. También examinaron en qué medida los sistemas de IA actuales disfrutan de estas capacidades.

"La comprensión se basa en una base de conocimiento central innato", escribe Mitchell. Nuestra comprensión básica de la física, la gravedad, la persistencia de los objetos y la causalidad nos permiten rastrear las relaciones entre los objetos y sus partes, pensar en situaciones hipotéticas y escenarios hipotéticos, y actuar en el mundo con coherencia. Investigaciones recientes indican que la física intuitiva y los modelos causales juegan un papel clave en nuestra comprensión de las escenas visuales, y los científicos lo han descrito como uno de los componentes clave de la "materia oscura" de la visión por computadora.

Más allá de la física, los humanos también tienen una "psicología intuitiva innata o desarrollada tempranamente", escribe Mitchell, que nos brinda la capacidad de analizar, empatizar y comunicarse con otros seres sociales. Mitchell también habla de "metacognición", la capacidad de "explicar y predecir nuestros propios procesos de pensamiento y decisiones, y mapearlos en los procesos de pensamiento de los demás". Estas capacidades son esenciales para que podamos desarrollar una idea del alcance de la información que tenemos y cuán relevante es para resolver problemas. También nos permite ponernos en los zapatos de Aurelie e imaginar sus sentimientos mientras observa a Aimable arremeter contra Pomponette.

Las redes neuronales no pueden extrapolar

En comparación con los humanos, redes neuronales profundas necesitar muchos más datos para aprender cosas nuevas. Esto se debe a que, si bien las redes neuronales son eficientes para interpolar entre los puntos de datos que han visto durante el entrenamiento, son terribles para tratar situaciones que no están cubiertas por sus datos de entrenamiento. Los humanos, por otro lado, son buenos para extrapolar su conocimiento y experiencia a situaciones nunca antes vistas porque "construyen representaciones abstractas", escribe Mitchell. La abstracción es una herramienta poderosa de la mente humana. Es lo que nos permite extraer los significados de alto nivel del extracto de la película que vimos al principio de este artículo y compararlos con cosas que ya sabemos.

Y a diferencia de las redes neuronales, que tienen un proceso diferente de entrenamiento y despliegue, el cerebro humano es una máquina de aprendizaje activa que continúa ajustando su conocimiento durante toda su vida. "La percepción, el aprendizaje y la inferencia son procesos activos que se desarrollan dinámicamente a lo largo del tiempo, implican la retroalimentación continua del contexto y el conocimiento previo, y en gran medida no están supervisados", escribe Mitchell.

La comunidad de IA y neurociencia está dividida sobre cómo la mente humana adquiere conocimiento de manera eficiente. Muchos científicos creen que el cerebro viene precableado con muchas capacidades. Estas capacidades innatas, que en su mayoría damos por sentado, nos permiten dar sentido a situaciones que nunca hemos visto antes y aprender cosas con muy pocos ejemplos. Otros investigadores afirman que, como las redes neuronales artificiales, el cerebro es una gran máquina de interpolación que aprende a llenar los vacíos entre los datos conocidos, y necesitamos descubrir el algoritmo secreto que nos hace eficientes para extraer el significado del mundo.

"No creo que nadie sepa la respuesta a esto", dijo Mitchell TechTalks en comentarios escritos "Ni siquiera estoy seguro de que sea una o la otra, es probable que tengamos capacidades precableadas en el cerebro que guíen nuestro aprendizaje autodirigido temprano. También es probable que tengamos algunos "hechos" precableados sobre el mundo, como cómo identificar que algo es un "objeto".

Consideraciones evolutivas.

<img class="alignnone size-full wp-image-6520 jetpack-lazy-image jetpack-lazy-image–handled lazy" alt="investigación científica del ADN "width =" 696 "height =" 348 "data-attach-id =" 6520 "data-permalink =" https://bdtechtalks.com/2020/02/05/2020s-the-decade-ai- will-dominate / dna-science-research / "data-orig-file =" https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg? fit = 3200% 2C1600 & ssl = 1 "data-orig-size =" 3200,1600 "data-comments-abrir =" 1 "data-image-meta =" {"apertura": "0", "crédito": "" , "camera": "", "caption": "", "created_timestamp": "0", "copyright": "", "focal_length": "0", "iso": "0", "shutter_speed": "0", "título": "", "orientación": "1"} "data-image-title =" dna science research "data-image-description =" "data-medium-file =" https: // i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?fit=300%2C150&ssl=1 "data-large-file =" https: //i2.wp .com / bdtechtalks.com / wp-content / uploads / 2020/02 / dna-science-research.jpg? fit = 696% 2C348 & ssl = 1 "data-recalc-dims =" 1 "data-lazy-loaded =" 1 "src =" https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?resiz e = 696% 2C348 & ssl = 1 "data-lazy =" true "srcset =" https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg? w = 3200 & ssl = 1 3200w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?resize=300%2C150&ssl=1 300w, https: //i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?resize=1024%2C512&ssl=1 1024w, https://i2.wp.com/bdtechtalks .com / wp-content / uploads / 2020/02 / dna-science-research.jpg? resize = 768% 2C384 & ssl = 1 768w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/ 2020/02 / dna-science-research.jpg? Resize = 1536% 2C768 & ssl = 1 1536w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research .jpg? resize = 2048% 2C1024 & ssl = 1 2048w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?resize=696%2C348&ssl= 1 696w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?resize=1068%2C534&ssl=1 1068w, https: // i2. wp.com/bdtechtalks.com/wp -content / uploads / 2020/02 / dna-science-research.jpg? resize = 840% 2C420 & ssl = 1 840w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/ dna-science-research.jpg? resize = 1920% 2C960 & ssl = 1 1920w, https://i2.wp.com/bdtechtalks.com/wp-content/uploads/2020/02/dna-science-research.jpg?w = 1392 & ssl = 1 1392w "/>

Otra área explorada en el taller de Santa Fe fue la necesidad de que los sistemas de inteligencia artificial tuvieran un cuerpo para experimentar el mundo. "La comprensión en los sistemas vivos surge no de un cerebro aislado, sino de la combinación inseparable de cerebro y cuerpo que interactúan en el mundo", escribe Mitchell, y agrega que los partidarios de esta hipótesis creen que un cerebro sin cuerpo no logrará una comprensión similar a la humana.

"Creo que si le preguntaras a la gente en el taller, habría habido mucha diferencia de opinión sobre lo que significa" encarnación "", me dijo Mitchell. "Pero ciertamente incluye la capacidad de 'sentir' activamente el mundo de una forma u otra, enfatizando el 'activamente'. No creo que nadie pueda decir que hay un solo tipo de 'encarnación' que es necesaria para el público en general. inteligencia."

La evolución también ha jugado un papel clave en la configuración de la mente de cada ser vivo para satisfacer sus necesidades físicas. "En las últimas décadas, ha surgido evidencia de la neurociencia, la psicología y la lingüística que respalda el papel esencial del cuerpo en prácticamente todos los aspectos del pensamiento", escribe Mitchell. Por ejemplo, aunque los chimpancés son obviamente menos inteligentes que los humanos, tienen una memoria mucho mejor a corto plazo. Del mismo modo, las mentes de las ardillas han evolucionado para recordar miles de escondites de comida.

Estas son habilidades cognitivas que se han desarrollado durante miles y millones de generaciones e interacciones repetidas con el medio ambiente. "Quizás la estructura subyacente particular del cerebro no es tan central para la comprensión como el proceso evolutivo en sí mismo", observa Mitchell en su artículo, y agrega que un enfoque evolutivo podría abrir un camino hacia la integración del significado y la comprensión en los sistemas de inteligencia artificial.

A este respecto, uno de los beneficios de la inteligencia artificial es que, donde los entornos simulados lo permiten, puede jugar ciclos evolutivos en avance rápido.

La comprensión no es una función de pérdida o un punto de referencia

Los algoritmos de aprendizaje automático están diseñados para optimizar una función de costo o pérdida. Por ejemplo, cuando una red neuronal se somete a entrenamiento, ajusta sus parámetros para reducir la diferencia entre sus predicciones y las etiquetas proporcionadas por humanos, que representan la verdad fundamental. Este enfoque simplista para resolver problemas no es de lo que se trata la "comprensión", argumentaron los participantes en el taller del Instituto Santa Fe. No existe una métrica única para medir el nivel de comprensión.

No está claro qué debe ser "optimizado" para lograr los correlatos de comprensión o "incluso si la optimización en sí misma es el marco adecuado para usar", escribe Mitchell en su artículo.

Otro problema que afecta a la comunidad de IA es el enfoque limitado en la optimización de algoritmos para puntos de referencia y conjuntos de datos específicos. En la última década, han surgido muchos conjuntos de datos que contienen millones de ejemplos en áreas como visión por computador y procesamiento natural del lenguaje. Estos conjuntos de datos permiten a los investigadores de IA entrenar sus algoritmos y probar su precisión y rendimiento. Pero si bien el arduo trabajo que se ha dedicado a la conservación de estos conjuntos de datos es encomiable y ha contribuido mucho a muchos avances que hemos visto en la IA en los últimos años, también han dado paso a una cultura que crea una falsa impresión de logro.

"Debido a los incentivos que el campo ofrece en el desempeño exitoso en puntos de referencia específicos, a veces la investigación se enfoca demasiado en un punto de referencia particular en lugar de la tarea subyacente más general", escribe Mitchell en Revista AI.

Cuando obtener una puntuación más alta en el conjunto de datos se convierte en el objetivo, puede conducir a resultados perjudiciales. Por ejemplo, en 2015, un equipo de Investigadores de IA de Baidu hicieron trampa para obtener una puntuación más alta que otros competidores en ImageNet, una competencia anual de visión por computadora. En lugar de encontrar un algoritmo novedoso que pudiera clasificar las imágenes con mayor precisión, el equipo logró encontrar una forma de alcanzar el punto de referencia en violación de las reglas del concurso.

Las deficiencias de los conjuntos de datos estrechamente seleccionados también se han convertido en el punto culminante de investigaciones más recientes. Por ejemplo, en la conferencia NeurIPS 2019, un equipo de investigadores del MIT-IBM Watson AI Lab demostró que los algoritmos entrenados en el conjunto de datos ImageNet mal desempeño en situaciones del mundo real donde los objetos se encuentran en posiciones poco comunes y condiciones de iluminación.

<img class="jetpack-lazy-image jetpack-lazy-image–handled wp-image-6172 size-full lazy" alt="Imágenes de ImageNet frente a imágenes de ObjectNet "width =" 696 "height =" 706 "data-attach-id =" 6172 "data-permalink =" https://bdtechtalks.com/2019/12/16/objectnet-dataset-ai- computer-vision / objectnet_controls_table / "data-orig-file =" https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/12/objectnet_controls_table.png?fit=1452%2C1472&ssl=1 " data-orig-size = "1452,1472" data-comments-abrió = "1" data-image-meta = "{" apertura ":" 0 "," crédito ":" "," cámara ":" ", "caption": "", "created_timestamp": "0", "copyright": "", "focal_length": "0", "iso": "0", "shutter_speed": "0", "title": "", "orientación": "0"} "data-image-title =" Imágenes de ImageNet frente a imágenes de ObjectNet "data-image-description =" "data-medium-file =" https://i0.wp.com/ bdtechtalks.com/wp-content/uploads/2019/12/objectnet_controls_table.png?fit=296%2C300&ssl=1 "data-large-file =" https://i0.wp.com/bdtechtalks.com/wp-content /uploads/2019/12/objectnet_controls_table.png?fit=696%2C706&ssl=1 "data-recalc-dims =" 1 "data-lazy-loaded =" 1 "src =" https://i0.wp.com/ bdtechtalks.com/wp-conte nt / uploads / 2019/12 / objectnet_controls_table.png? resize = 696% 2C706 & ssl = 1 "data-lazy =" true "srcset =" https://i0.wp.com/bdtechtalks.com/wp-content/uploads/ 2019/12 / objectnet_controls_table.png? W = 1452 & ssl = 1 1452w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/12/objectnet_controls_table.png?resize=296%2C300&ssl=1 296w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/12/objectnet_controls_table.png?resize=1010%2C1024&ssl=1 1010w, https://i0.wp.com/bdtechtalks .com / wp-content / uploads / 2019/12 / objectnet_controls_table.png? resize = 768% 2C779 & ssl = 1 768w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/12/ objectnet_controls_table.png? resize = 696% 2C706 & ssl = 1 696w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/12/objectnet_controls_table.png?resize=1068%2C1083&ssl=1 1068w, https://i0.wp.com/bdtechtalks.com/wp-content/uploads/2019/12/objectnet_controls_table.png?resize=414%2C420&ssl=1 414w, https://i0.wp.com/bdtechtalks.com / wp-content / uploads / 2019/12 / objectnet_co ntrols_table.png? w = 1392 & ssl = 1 1392w "/>