Críticas

Safe Superintelligence obtiene financiación adicional para la IA

safe-superintelligence-secures-additional-ai-funding

Safe Superintelligence, la ambiciosa empresa de inteligencia artificial creada por el ex jefe científico de OpenAI Ilya Sutskeverha conseguido otros 1.400 millones de euros de inversión, lo que eleva su valoración a la impresionante cifra de 1.400 millones de euros. Según la información publicada recientemente por el Financial Times, esta nueva ronda de financiación se suma a una anterior de 1.400 millones de euros, lo que demuestra la notable confianza de los inversores a pesar del relativo secretismo de SSI sobre el desarrollo de sus productos.

La financiación, que según las fuentes fue encabezada principalmente por Greenoaks, sugiere un optimismo significativo entre los principales inversores de capital riesgo en Superinteligencia segurade la empresa. Sin embargo, los representantes de la empresa declinaron hacer comentarios oficiales o confirmar detalles sobre las finanzas entrantes.

Desde su salida de OpenAI en circunstancias controvertidas, Ilya Sutskever se ha mantenido firmemente en el punto de mira de la IA. Su famosa salida de OpenAI se produjo en medio de un conflicto interno que surgió tras un intento fallido de destituir al CEO Sam Altman, y esta dramática salida no hizo sino aumentar la expectación sobre sus futuros proyectos.

Poco después de abandonar OpenAI, Sutskever se asoció con los veteranos del sector Daniel Gross y Daniel Levy. Juntos, posicionaron a SSI como una empresa con una ambición singular y audaz: crear de forma silenciosa un sistema de IA superinteligente totalmente seguro.

Una visión singular de la inteligencia artificial

A pesar de las grandes expectativas y los cuantiosos fondos, Safe Superintelligence se mantiene sorprendentemente discreta sobre su hoja de ruta. Los visitantes que buscan información en el sitio web de SSI no encuentran mucho más que una declaración de objetivos concisa pero intrigante, que deja entrever el enfoque intensamente resuelto, aunque cauto, de la empresa.

Los fundadores de la empresa mantienen que su objetivo sigue siendo desarrollar un producto de IA innovador definido explícitamente por la seguridad y la compatibilidad humana como prioridades principales. Esta aspiración pone de manifiesto la preocupación generalizada en la industria por el desarrollo de la inteligencia artificial y sus riesgos potencialmente existenciales.

Los observadores del mercado expresan cada vez más curiosidad por saber con qué precisión pretende SSI hacer realidad su visión, dadas las complejidades que entraña la producción de sistemas superinteligentes verdaderamente seguros. Sin embargo, los inversores parecen dispuestos a hacer apuestas sustanciales basadas en gran medida en la reputación y el éxito previo del trío fundador de SSI, especialmente el propio Sutskever.

Además, es probable que la confianza de los inversores se deba al papel decisivo de Ilya Sutskever en los avances de la IA desde que trabajó en OpenAI. Su liderazgo de pensamiento dio forma a modelos generativos de IA como ChatGPT, consolidando su estatura en los círculos de investigación de inteligencia artificial.

No obstante, los observadores señalan la ausencia de avances visibles o de información directa sobre los logros tecnológicos reales de la empresa hasta la fecha. Esta falta de transparencia ha despertado la intriga entre competidores, académicos y expertos del sector, muchos de los cuales están ansiosos por ver si SSI es capaz de lograr los avances prometidos en IA.

La importante inversión en una fase tan temprana y no declarada pone de relieve la agresividad con que las empresas de capital riesgo están dispuestas a buscar oportunidades relacionadas indirectamente con la curiosidad mundial en torno a la tecnología de IA de próxima generación. El aumento de la atención también pone de relieve la confianza de los inversores en el liderazgo y la visión de SSI para resolver uno de los mayores retos tecnológicos emergentes de la humanidad.

En última instancia, esta financiación adicional podría permitir a Safe Superintelligence ampliar rápidamente la investigación y atraer a los mejores científicos e ingenieros de IA del mundo, situándose a la vanguardia de la actual carrera por construir inteligencia artificial avanzada de forma responsable. Sin embargo, a falta de hitos públicos claros o de una comunicación transparente, la capacidad de la startup para equilibrar el secretismo con la necesaria colaboración de la comunidad sigue siendo fundamental.

Safe Superintelligence, líder en inteligencia artificial, consigue más financiación

COMPARTIR

Añadir un comentario

Esto se ve mejor en la aplicación

Utilizamos cookies para mejorar su experiencia en nuestro sitio. Si continúa navegando, consideramos que acepta su uso.

Conectarse / Registrarse

Únase a la mayor comunidad de IA y descubra las últimas herramientas de IA, tutoriales útiles y ofertas exclusivas.