El conflicto en la empresa OpenAI importa a todos. La entidad, “Inteligencia artificial abierta”, liderada por Sam Altman, hace un año le entregó el ChatGPT al mundo… “por el bien de la humanidad”.
ChatGPT (https://rb.gy/cjlfpt) ayuda a mejorar textos, a crear presentaciones, a analizar programas, a diseñar logotipos, a proponer estrategias. Y mucho más.
Pero, el viernes 17 de noviembre, el directorio de OpenAI despidió a Sam Altman, su gerente general, su inspiración. Microsoft le ofreció trabajo al tiro. Pero, el domingo 19, en OpenAI, unos 700 empleados amenazaron con renunciar si se mantenía el despido.
Altman volvió; miembros del directorio renunciaron o se les pidió la renuncia. Nada muy claro, nada de “open”.
“Caos en OpenAI”, tituló el análisis transmitido en línea por el Massachusetts Institute of Technology (MIT) y su revista Technology Review (https://cutt.ly/wwIiVvP5). Ahí, dos periodistas especializados en IA, Melissa Heikkila y Will Douglas Heaven, conversaron con Niall Firth, editor de Technology Review.
Recordaron los comienzos de OpenAI, una entidad de investigación sin fines de lucro Ahora requiere más dinero para crecer.
Apareció el conflicto ético: entre seguir investigando “por el bien de la humanidad” o enfatizar su empresa lucrativa dependiente.
Porque, coincidieron los tres expertos MIT, es posible que el conflicto al interior del directorio de OpenAI estallase porqueAltman propuso lanzar nuevos productos, liderar y obtener recursos.
Pero, como en la academia, en los organismos internacionales, y en el mundo político cuestionan la aplicación indiscriminada de la IA, al interior de OpenAI surgieron voces que pedían bajar el ritmo de los avances hasta que los efectos no estuvieran claros.
Melissa Heikkila recordó que la ética de Silicon Valley prefería la autorregulación. Pero, dijo, escuchando los cuestionamientos y advertencias, la conclusión es clara: la autorregulación no funciona.
Los tres del MIT se preguntaron sobre qué dirá la nueva misión, la visión que ahora declarará OpenAI. ¿Qué código de ética presentará el nuevo directorio?
El jueves 23, gracias a la Corporación 3xi, estudié el “Primer estudio de polarizaciones, entendiendo las (des) confianzas” en Chile (estudiopolarizaciones.3xi.cl). Aprendí que los polarizados de un lado caricaturizan al opuesto.
Aplicándolo a OpenAI, podría creerse que quien busca el lucro, no busca el bien de la humanidad; y quien busca el bien de la humanidad, no puede buscar el lucro. Es lo que aplicaron los periodistas del MIT.
El exdiputado José Auth, quien comentó el estudio sobre polarizaciones en Chile, aplaudió el encontrarse. Pero, en un momento, lamentó que los políticos inevitablemente recurrirán a agencias de publicidad que les indicarán las fortalezas y las debilidades de sus adversarios. Y eso no genera coincidencias, superación de las polarizaciones, las incrementa.
¿Serán imaginables áreas comunes? OpenAI y nuestros políticos nos demostrarán si existen posibilidades. Mientras, a estudiar el estudio.