
Sutskever encuentra oro en IA con respaldo de mil millones de dólares para IA superinteligente


El miércoles, Reuters reportado Safe Superintelligence (SSI), una nueva empresa de inteligencia artificial cofundada por el ex científico jefe de OpenAI Ilya Sutskever, ha recaudado mil millones de dólares en financiación. La empresa, que lleva tres meses en funcionamiento, planea centrarse en el desarrollo de lo que denomina sistemas de inteligencia artificial “seguros” que superan las capacidades humanas.
El esfuerzo de recaudación de fondos demuestra que incluso en medio de creciente escepticismo En torno a las inversiones masivas en tecnología de IA que hasta ahora no han sido rentables, algunos inversores siguen dispuestos a realizar grandes apuestas en talentos de alto perfil en la investigación fundamental de la IA. Empresas de capital de riesgo como Andreessen Horowitz, Sequoia Capital, DST Global y SV Angel participaron en la ronda de financiación de SSI.
SSI pretende utilizar los nuevos fondos para aumentar su capacidad informática y atraer talento. Con sólo 10 empleados en este momento, la empresa pretende formar un equipo más grande de investigadores en sus sedes de Palo Alto, California, y Tel Aviv, informó Reuters.
Si bien SSI no reveló oficialmente su valoración, fuentes dijeron a Reuters que estaba valuada en 5.000 millones de dólares, una cantidad sorprendentemente grande solo tres meses después de la fundación de la compañía y sin productos conocidos públicamente aún desarrollados.
Hijo de OpenAI

Benj Edwards
Al igual que Anthropic, SSI se formó como una empresa independiente fundada en parte por ex empleados de OpenAI. Sutskever, de 37 años, cofundó SSI con Daniel Gross, quien anteriormente dirigió iniciativas de IA en Apple, y Daniel Levy, un ex investigador de OpenAI.
La salida de Sutskever de OpenAI siguió a un período difícil en la empresa que, según se informa, incluyó… desencanto
La superinteligencia, como hemos señalado anteriormente, es un término nebuloso para una tecnología hipotética que superaría con creces la inteligencia humana. No hay garantía de que Sutskever tenga éxito en su misión (y Los escépticos abundan), pero el poder estelar que obtuvo de sus credenciales académicas y de ser un cofundador clave de OpenAI ha hecho que la rápida recaudación de fondos para su nueva empresa sea relativamente fácil.
La compañía planea dedicar un par de años a la investigación y el desarrollo antes de sacar un producto al mercado, y su autoproclamado enfoque en la “seguridad de la IA” se debe a la creencia de que en el horizonte se encuentran poderosos sistemas de IA que pueden causar riesgos existenciales para la humanidad.
El tema de la “seguridad de la IA” ha generado debates en el sector tecnológico, donde las empresas y los expertos en IA adoptan posturas diferentes sobre las normas de seguridad propuestas, incluida la controvertida SB-1047 de California, que pronto podría convertirse en ley. Dado que el tema del riesgo existencial que plantea la IA todavía es hipotético y con frecuencia se guía por opiniones personales más que por la ciencia, es poco probable que esa controversia en particular se calme en el corto plazo.