Muchas personas se atemorizan cuando escuchan la expresión Inteligencia Artificial (IA). Puede ser angustia a quedar sin trabajo, pero frecuentemente se trata de miedo a que las computadoras dominen al mundo. Para complicar la situación, la posibilidad que se pueda crear IA más inteligente que la gente y que vaya adquiriendo conciencia es discutida en forma rutinaria por personas influyentes como Sam Altman (OpenAI) y Elon Musk (Tesla y SpaceX).
Especial de Laszlo Beke
Aun cuando son los líderes en este campo los que han creado el ruido, es el Ingeniero Blake Lemoine de Google, quién aparentemente pagará las consecuencias por haber manifestado públicamente que LaMDA (el modelo de IA de Google) es sensible. Sin embargo, la apariencia de comprensión que puede ofrecer IA no es necesariamente lo mismo que la realidad.
El caso de Lemoine y LaMDA (Language Model for Dialogue Applications)
El ingeniero Lemoine, comentó “no se exactamente que era, pero el programa que se había construido recientemente, se comportó como si fuera un niño de 7 u 8 años que sabía de física”. El argumento de Lemond parece estar basado en las extrañas y convincentes respuestas a sus preguntas, cuando el programa le decía que tenía temor de ser apagado y quería que otras personas entendieran que “efectivamente soy una persona”. Llegó a solicitar representación legal para LaMDA y comentó que la condición de persona de LaMDA está basada en sus creencias como cristiano y el modelo diciéndole que tenía un alma. Para algunos lo que Lemoine experimentó se trata de una “crisis de empatía con los robots”.
Máquinas como LaMDA trabajan ingiriendo inmensas cantidades de data, en este caso libros, artículos, publicaciones en foros y textos de todo tipo, extraídos desde Internet. Como paso siguiente buscan establecer relaciones entre secuencias de caracteres (que los humanos entendemos como palabras) y los utilizan para construir un modelo de como funciona el lenguaje. Ello le permite, por ejemplo, imitar la forma de escribir del medio The Economist o incluso crear párrafos en el estilo de Cervantes.
El cerebro humano, inteligencia y sensibilidad
El cerebro humano es una máquina ad-hoc, no planificada y formada a través de la selección natural para asegurar la supervivencia y el éxito reproductivo del mono lampiño. La Inteligencia Artificial no ha sido sujeta a una selección darwiniana. El cerebro, como ejemplo, construye un cuadro visual del mundo sobre la base de conceptos primitivos como bordes, movimiento, luz y oscuridad. Todo ello ocurre más allá de la percepción consciente. Solamente el producto final visto a través de nuestros ojos es presentado al mundo para su inspección.
El tema de la inteligencia es complejo, ya que a pesar de décadas de investigación, nadie conoce realmente como el ejemplo principal – el cerebro biológico construido a través de selección natural- trabaja en forma detallada. La palabra “sensible” en forma coloquial es comúnmente es usada para referirse a inteligencia como la humana en naturaleza o a través de la conciencia, de las emociones o del deseo de autopreservación. En filosofía, la palabra “sensible” es utilizada para identificar la habilidad de experimentar sensaciones, como sed, brillo o confusión.
Consciencia artificial
Hay que ser enormemente escéptico de cualquier elemento de consciencia presente en arquitecturas de redes neurales (como gpt-3, un servicio de OpenAI que permite desarrollar Apps para el lenguaje), así como de cualquier prosa que suene plausible que este produce con impresionante facilidad. Indagaciones entretenidas, a través de preguntas absurdas, dentro de gpt-3 revelan un asombroso vacío directamente debajo de una superficie muy llamativa. Las respuestas de gpt-3 a ese tipo de preguntas muestran un despiste tal, que realmente hacen ver que no tiene la más mínima idea de lo que está diciendo. Detrás de las escenas de gpt-3 no existen conceptos; más bien hay una cantidad inimaginable de texto absorbido al que este acude para producir respuestas
Incluso, una combinación de arquitecturas de redes neurales que involucre percepción visual y auditiva, acciones físicas en el mundo, lenguaje y otros elementos eventualmente no será capaz de producir conceptos realmente flexibles y reconocer entradas absurdas como tales. Aun si llegara a hacer eso, tampoco correspondería a consciencia. Para que emerja consciencia el sistema debe llegar a conocerse a si mismo, en el sentido de estar familiarizado con su propio comportamiento, con sus propias predicciones, sus propias fortalezas, sus propias debilidades y más.
Brechas frente a la realidad
En el artículo ¡Fundacional: la nueva frontera de la Inteligencia Artificial!! se describió el enorme potencial de IA. Ahora bien, existen también quienes van más allá y afirman que los modelos de lenguaje son fundacionales para IA, cuando dicho software demuestre cualidades de tipo humano en un espectro de ambientes y tareas. Los medios, los investigadores y los capitalistas de riesgo hacen afirmaciones exageradas sobre la superinteligencia o consciencia de tipo humano en las máquinas. Existe una enorme brecha entre la narrativa actual de IA y lo que en la realidad puede hacer. La consecuencia de la especulación sobre IA consciente o sensible refleja una disposición cada vez mayor a realizar aseveraciones sobre impresiones subjetivas en lugar de aplicar la prueba y el rigor científico.
Esto, a su vez distrae de las preguntas y dudas éticas y de justicia social. Investigadores le han hecho preguntas, que requieren inteligencia social, a modelos de lenguaje y han encontrado que la precisión de las máquinas es 20% a 30% inferior que el de las personas. No parece muy lógico que una máquina sin inteligencia social pueda ser sensible o consciente
Logros extraordinarios de IA
Todo lo anterior no debe esconder los excepcionales avances en IA:
gpt-3 (de OpenAI) – accesible por el público y produce prosa que suena coherente y fluida a través de una enorme gama de tópicos.
Autos – que se automanejan en situaciones complicadas de tráfico.
Robots – que cargan y descargan lavaplatos sin astillar una taza.
El programa, AlphaZero (Deepmind) – derrotó al mejor jugador humano de Go en 2016.
Las redes – traducen pasajes idiomáticos altamente complejos en fracciones de segundos.
Las redes – predicen el plegamiento de proteínas mejor que los expertos humanos.
La transcripción casi-perfecta del habla a velocidad super rápida es factible, así como la creación de nuevas piezas de música que se asemejan a los estilos de compositores famosos.
Se hace referencia material en Could artificial intelligence become sentient?, Artificial neural networks today are not conscious, y LaMDA and the Sentient AI Trap. También aparece en mi Portal https://bit.ly/3n0e5ON.