Riesgoso

Algo está pasando detrás de escena en OpenAI, la compañía de inteligencia artificial que creó ChatGPT y que, en los hechos, le pertenece a Microsoft. La semana pasada se supo que disolvieron el equipo que se ocupaba de analizar los riesgos que la IA podría traer si se vuelve más lista que nosotros. Poco antes se había ido de la compañía el jefe de ese equipo, Ilya Sutskever, posiblemente la mente más brillante detrás de los logros de OpenAI; estaba en una posición política endeble, luego de participar de la reunión en la que el directorio decidió echar a Sam Altman, en noviembre. Altman, aclamado por los empleados, volvió a tomar las riendas de la organización, cinco días después, y Sutskever quedó en offside. Pero hay algo más. Supuesto el caso de que el equipo realmente tuviera la función de contener a una IA más inteligente que los humanos (hay cierta contradicción ahí), ¿por qué lo han desmantelado después de menos de un año? Hay dos opciones (dejando de lado que fuera solo una cáscara vacía): o bien OpenAI sabe que una IA más inteligente que los humanos hace un buen titular y nada más o bien es consciente de que si sus algoritmos se salen de control no alcanzará con un equipo de programadores. Necesitaremos a Sarah Connor.

Algo está pasando detrás de escena en OpenAI, la compañía de inteligencia artificial que creó ChatGPT y que, en los hechos, le pertenece a Microsoft. La semana pasada se supo que disolvieron el equipo que se ocupaba de analizar los riesgos que la IA podría traer si se vuelve más lista que nosotros. Poco antes se había ido de la compañía el jefe de ese equipo, Ilya Sutskever, posiblemente la mente más brillante detrás de los logros de OpenAI; estaba en una posición política endeble, luego de participar de la reunión en la que el directorio decidió echar a Sam Altman, en noviembre. Altman, aclamado por los empleados, volvió a tomar las riendas de la organización, cinco días después, y Sutskever quedó en offside. Pero hay algo más. Supuesto el caso de que el equipo realmente tuviera la función de contener a una IA más inteligente que los humanos (hay cierta contradicción ahí), ¿por qué lo han desmantelado después de menos de un año? Hay dos opciones (dejando de lado que fuera solo una cáscara vacía): o bien OpenAI sabe que una IA más inteligente que los humanos hace un buen titular y nada más o bien es consciente de que si sus algoritmos se salen de control no alcanzará con un equipo de programadores. Necesitaremos a Sarah Connor.

 Algo está pasando detrás de escena en OpenAI, la compañía de inteligencia artificial que creó ChatGPT y que, en los hechos, le pertenece a Microsoft. La semana pasada se supo que disolvieron el equipo que se ocupaba de analizar los riesgos que la IA podría traer si se vuelve más lista que nosotros. Poco antes se había ido de la compañía el jefe de ese equipo, Ilya Sutskever, posiblemente la mente más brillante detrás de los logros de OpenAI; estaba en una posición política endeble, luego de participar de la reunión en la que el directorio decidió echar a Sam Altman, en noviembre. Altman, aclamado por los empleados, volvió a tomar las riendas de la organización, cinco días después, y Sutskever quedó en offside. Pero hay algo más. Supuesto el caso de que el equipo realmente tuviera la función de contener a una IA más inteligente que los humanos (hay cierta contradicción ahí), ¿por qué lo han desmantelado después de menos de un año? Hay dos opciones (dejando de lado que fuera solo una cáscara vacía): o bien OpenAI sabe que una IA más inteligente que los humanos hace un buen titular y nada más o bien es consciente de que si sus algoritmos se salen de control no alcanzará con un equipo de programadores. Necesitaremos a Sarah Connor.  Read More

Deja un comentario