Si hay un par de verdades sobre la inteligencia artificial es que es inevitable y avanza firme con nosotros. En algunos casos, sin que lo hayamos notado.
Por: Clarín
Juan Gustavo Corvalán es una voz muy autorizada a la hora de bajar a tierra conceptos que por intangibles y “de nicho”, resultan ajenos a miles de personas. Dirige y cofundó el Laboratorio de Innovación e Inteligencia Artificial de la UBA (IALAB), espacio que curiosamente funciona en la Facultad de Derecho. Es abogado, pero se especializó en “machine learning” en el Instituto Tecnológico de Massachusetts (Estados Unidos), y en inteligencia artificial, en la Universidad de Oxford (Inglaterra).
¿“Inteligencia Artificial” es con mayúsculas, como en su momento -cuando literalmente no era un sustantivo común- muchos escribían “Internet”? Uno le pregunta vocalizando in-te-li-gen-cia ar-ti-fi-cial”, pero Corvalán no responde “I-A” (las letras por separado) sino “ia”, de corrido. La define como “la nueva electricidad”. Y comparte cinco dimensiones en las que ya empieza a reinar.
1. Microtargeting
Si usted nació en los 70 o antes, capaz no le sea tan familiar la expresión de Corvalán de “estar perfilado”, o que las empresas lleven adelante acciones de “microtargeting”.
Target significa “blanco”. Con la “ia”, las compañías apuntan a perfiles de usuarios y clientes más definidos, de modo de generar mejores estrategias de acercamiento para aumentar ventas o inclinar su interés en cierta dirección.
“Como la ‘ia’ permite extraer datos y metadatos grandes, procesarlos y analizarlos, se genera un ciclo de ‘perfilado’ a partir del cual se diseñan grupos de probabilidades”, explicó Corvalán. Los grupos somos nosotros. Las probabilidades, nuestras acciones.
El perfilado tan “acabado” es lo que a veces impulsa esa sensación de que el navegador online “te comprende”, por ejemplo, al recibir un aviso publicitario de lo que “justo justo” uno estaba buscando.
Aun cuando la inteligencia artificial esté operando silenciosa, el usuario cree que todo lo que ocurre online es producto de sus decisiones. Pero “no siempre es así”, advirtió el experto, antes de explicar que “uno decide algunas cosas, mientras que las otras se nos ofrecen en base a elecciones previas y a las predicciones de lo que uno podría llegar a querer”.
“No hay excepción a esto, salvo que navegues en modo ‘incógnito’, pero aun así te podrían perfilar”, reconoció Corvalán.
La tendencia no parece mermar. Una encuesta de 2022 del gigante IBM mostró que el 35% de las empresas habían adoptado IA en algún segmento de su negocio; y un 42% adicional evaluaba hacerlo. El alza de uso de la IA, ese año, fue cuatro puntos porcentuales más que en 2021.
2. La era de los chatbots
En la pandemia, muchas provincias y efectores de salud tuvieron su “boti”, como el chatbot porteño que entre otras cosas gestionaba turnos para vacunación Covid.
Fue tan útil como odiado, en especial, cuando no funcionaba o incumplía las expectativas. Volveremos sobre esto.
Con más o menos limitaciones, los robots programados para interactuar con nosotros no son nuevos, pero lo que sí fue novedoso en estos meses fue el logro (¿intelectual, hay que decir?) de la nueva versión del tan nombrado Chat GPT, fascinante y atemorizante a la vez.
Desde el robotito tedioso con su “hola, en qué puedo ayudarte” hasta el insaciable Chat GPT, estas herramientas son una muestra clara de la autosuperación (por ahora, con límites inexplorados) de la inteligencia artificial.
Corvalán recordó que más de 70 países están usando chatbots para relacionarse con la ciudadanía, sin contar las numerosas empresas que los usan como recepcionistas.
Pero, ¿funcionan, realmente? Clarín lo preguntó, en base a los chatbots de atención telefónica, que por lo general terminan derivando a un humano. Para Corvalán, “Boti es un caso exitoso y en general suelen funcionar. En el sector público, ayudan muchísimo para orientar a la ciudadanía en un mundo en que la nueva burocracia son las filas digitales”.
Por supuesto, todo esto tiene sus limitaciones. Corvalán las llamó “human in the loop”, concepto que se usa en el mundo “para aludir al debate de en qué punto de la cadena o circuito (loop) tiene que haber interacción humana”.
Es que, desde ya, “no todo puede ser producto de decisiones automatizadas. Hay que intervenir antes de que el algoritmo tome decisiones que puedan afectar negativamente a las personas”.
Puedes leer la nota completa en Clarín