Un grupo de antiguos y actuales empleados reclama cambios radicales en el sector de la inteligencia artificial, como una mayor transparencia y protección para los denunciantes.
Un grupo de empleados de OpenAI está denunciando lo que consideran una cultura de imprudencia y secretismo en la empresa de inteligencia artificial de San Francisco, que se apresura a construir los sistemas de inteligencia artificial más potentes jamás creados.
Por Infobae
El grupo, que incluye a nueve empleados y ex empleados de OpenAI, se ha reunido en los últimos días en torno a la preocupación compartida de que la empresa no ha hecho lo suficiente para evitar que sus sistemas de inteligencia artificial se vuelvan peligrosos.
Los miembros afirman que OpenAI, que comenzó como un laboratorio de investigación sin ánimo de lucro y saltó a la luz pública con el lanzamiento en 2022 de ChatGPT, está dando prioridad a los beneficios y al crecimiento en su intento de crear inteligencia artificial general, o I.A.G., el término industrial para un programa informático capaz de hacer cualquier cosa que pueda hacer un humano.
También afirman que OpenAI ha utilizado tácticas de mano dura para evitar que los trabajadores expresen sus preocupaciones acerca de la tecnología, incluyendo acuerdos restrictivos de no desprestigio que se pidió firmar a los empleados salientes.
“OpenAI está realmente entusiasmada con la creación de la I.G.A., y están corriendo temerariamente para ser los primeros en ello”, dijo Daniel Kokotajlo, antiguo investigador de la división de gobernanza de OpenAI y uno de los organizadores del grupo.
El grupo publicó el martes una carta abierta en la que pide a las principales empresas de Inteligencia Artificial, incluida OpenAI, que establezcan una mayor transparencia y más protecciones para los denunciantes.
Otros miembros son William Saunders, un ingeniero de investigación que abandonó OpenAI en febrero, y otros tres antiguos empleados de OpenAI: Carroll Wainwright, Jacob Hilton y Daniel Ziegler. Varios empleados actuales de OpenAI apoyaron la carta de forma anónima porque temían represalias por parte de la empresa, dijo el Sr. Kokotajlo. También firmaron un empleado actual y otro antiguo de Google DeepMind, el laboratorio central de Inteligencia Artificial de Google.
Una portavoz de OpenAI, Lindsey Held, dijo en un comunicado: “Estamos orgullosos de nuestra trayectoria como proveedores de los sistemas de inteligencia artificial más capaces y seguros, y creemos en nuestro enfoque científico para abordar los riesgos. Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología, y seguiremos colaborando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo”.
Un portavoz de Google declinó hacer comentarios.
La campaña llega en un momento difícil para OpenAI. Todavía se está recuperando de un intento de golpe de estado el año pasado, cuando los miembros de la junta de la compañía votaron a favor de despedir a Sam Altman, el director ejecutivo, por preocupaciones sobre su franqueza. El Sr. Altman fue readmitido días después y el consejo se rehizo con nuevos miembros.
La empresa también se enfrenta a batallas legales con creadores de contenidos que la han acusado de robar obras protegidas por derechos de autor para entrenar sus modelos. (El año pasado, The New York Times demandó a OpenAI y a su socio, Microsoft, por violación de derechos de autor). Y su reciente presentación de un asistente de voz hiperrealista se vio empañada por una disputa pública con la actriz de Hollywood Scarlett Johansson, que afirmó que OpenAI había imitado su voz sin permiso.
Leer más en Infobae