La empresa del cofundador de OpenAI, Ilya Sutskever, recaudó mil millones para crear una IA segura
El renombrado científico juntó una significativa inversión para su emprendimiento enfocado en el desarrollo seguro de inteligencias artificiales, una de los temas candentes en la industria
Además de los inversores mencionados, el fondo de capital de riesgo NFDG, una colaboración entre Nat Friedman, ex director ejecutivo de Github, y el cofundador de SSI, Daniel Gross, también participó en la ronda de financiamiento.
SSI planea utilizar los fondos para adquirir capacidad computacional y contratar talento de primer nivel. Actualmente, la compañía cuenta con diez empleados. Aunque se ha declinado compartir la valoración exacta de la empresa, fuentes cercanas indicaron a Reuters que está valorada en cinco mil millones de dólares.
Este financiamiento muestra que algunos inversores aún están dispuestos a realizar apuestas significativas en talentos excepcionales dedicados a la investigación fundamental en IA, a pesar del desinterés general por financiar dichas empresas que podrían ser no rentables por un tiempo prolongado.
Sutskever, de 37 años, dejó OpenAI en mayo, meses después de haber participado en la destitución inicial del director ejecutivo Sam Altman, acción que él mismo lamentó pocos días después. La salida del cofundador de OpenAI, donde trabajó como científico jefe desarrollando sistemas de seguridad para controlar la IA y mantenerla alineada con valores humanos, marcó el comienzo de su nueva aventura con SSI.
The Wall Street Journal señaló que Safe Superintelligence está firmemente enfocada en la seguridad de la inteligencia artificial, un tema candente en medio de los temores de que una IA descontrolada pueda actuar en contra de los intereses de la humanidad o, incluso, causar su extinción. Un proyecto de ley de California que busca imponer regulaciones de seguridad a las empresas ha dividido a la industria, con OpenAI y Google oponiéndose, mientras que Anthropic y la iniciativa xAI de Elon Musk la respaldan.
Gross indicó a Reuters que uno de los objetivos es crear una “superinteligencia segura” y dedicar los próximos años a la investigación y desarrollo. Este enfoque refleja el compromiso de SSI con la misión de prevenir que la inteligencia artificial cause daños.