Critiqs

Safe Superintelligence obtient un financement supplémentaire pour l'IA

safe-superintelligence-secures-additional-ai-funding

Safe Superintelligence, l'ambitieuse startup d'intelligence artificielle créée par l'ancien directeur scientifique d'OpenAI Ilya SutskeverSSI aurait obtenu un investissement supplémentaire de 1,4 milliard de dollars, ce qui porte son évaluation à un montant impressionnant de 1,4 milliard de dollars. Selon le Financial Times, ce nouveau tour de table s'ajoute à une précédente injection de 1,4 milliard de dollars, ce qui témoigne de la confiance des investisseurs malgré le secret relatif qui entoure le développement des produits de SSI.

Le financement, dont les sources indiquent qu'il a été mené principalement par Greenoaks, suggère un optimisme significatif parmi les principaux investisseurs en capital-risque de l'Union européenne. Une superintelligence sûreLes représentants de l'entreprise ont toutefois refusé de faire des commentaires officiels ou de confirmer les détails de la nouvelle situation financière. Toutefois, les représentants de l'entreprise ont refusé de fournir un commentaire officiel ou de confirmer les détails concernant les finances à venir.

Depuis son départ d'OpenAI dans des circonstances controversées, Ilya Sutskever est resté sous les feux de la rampe dans le domaine de l'IA. Il a quitté l'OpenAI dans le cadre d'un conflit interne qui a éclaté après l'échec d'une tentative de destitution du PDG Sam Altman, et ce départ spectaculaire n'a fait qu'accroître l'attente concernant ses futurs projets.

Peu après avoir quitté OpenAI, Sutskever s'est associé à Daniel Gross et Daniel Levy, deux vétérans de l'industrie. Ensemble, ils ont présenté SSI comme ayant l'ambition singulière et audacieuse de faire naître silencieusement un système d'IA superintelligente totalement sûr.

Une vision singulière de l'intelligence artificielle

Pourtant, malgré les attentes et les moyens financiers considérables, Safe Superintelligence reste étonnamment discrète sur sa feuille de route. Les visiteurs qui cherchent des informations sur le site web de SSI ne rencontrent pas grand-chose d'autre qu'une déclaration de mission concise mais intrigante, qui laisse entrevoir l'approche intensément déterminée mais prudente de l'entreprise.

Les fondateurs de l'entreprise maintiennent que leur objectif reste le développement d'un produit d'intelligence artificielle révolutionnaire, dont la sécurité et la compatibilité humaine sont les principales priorités. Cette aspiration met en lumière les préoccupations largement répandues dans l'industrie au sujet du développement de l'intelligence artificielle et de ses risques potentiellement existentiels.

Les observateurs du marché expriment de plus en plus leur curiosité quant à la manière dont SSI entend concrétiser sa vision, compte tenu de la complexité de la production de systèmes superintelligents réellement sûrs. Pourtant, les investisseurs semblent prêts à faire des paris importants en se fondant essentiellement sur la réputation et les succès antérieurs du trio fondateur de SSI, et notamment de Sutskever lui-même.

En outre, la confiance des investisseurs s'explique probablement par le rôle déterminant joué par Ilya Sutskever dans les percées en matière d'intelligence artificielle depuis son mandat à l'OpenAI. Son leadership en matière de réflexion a fondamentalement façonné des modèles d'IA générative tels que ChatGPT, consolidant sa stature dans les cercles de recherche sur l'intelligence artificielle.

Néanmoins, les observateurs notent l'absence de progrès visibles ou d'aperçus directs des réalisations technologiques réelles de l'entreprise jusqu'à présent. Ce manque de transparence a suscité l'intérêt des concurrents, des universitaires et des initiés de l'industrie, dont beaucoup sont impatients de voir si SSI peut effectivement réaliser les percées promises dans le domaine de l'IA.

Cet investissement substantiel à un stade aussi précoce et non déclaré montre à quel point les sociétés de capital-risque sont prêtes à saisir des opportunités liées indirectement à la curiosité mondiale pour la technologie de l'IA de nouvelle génération. Cette attention accrue souligne également la confiance des investisseurs dans le leadership et la vision de SSI pour résoudre l'un des plus grands défis technologiques émergents de l'humanité.

En fin de compte, ce financement supplémentaire pourrait permettre à Safe Superintelligence d'intensifier rapidement ses recherches et d'attirer les meilleurs scientifiques et ingénieurs en IA du monde, se positionnant ainsi à l'avant-garde de la course actuelle à la construction d'une intelligence artificielle avancée de manière responsable. Cependant, en l'absence de jalons publics clairs ou de communication transparente, la capacité de la startup à trouver un équilibre entre le secret et la collaboration nécessaire avec la communauté reste essentielle.

Safe Superintelligence, leader dans le domaine de l'intelligence artificielle, obtient une augmentation de son financement

PARTAGER

Ajouter un commentaire

C'est mieux dans l'application

Nous utilisons des cookies pour améliorer votre expérience sur notre site. Si vous continuez à utiliser ce site, nous supposerons que vous en êtes satisfait.

Se connecter / S'inscrire

Rejoignez la plus grande communauté d'IA et découvrez les derniers outils d'IA, des tutoriels utiles et des offres exclusives.