A Safe Superintelligence (SSI), uma startup de inteligência artificial (IA) cofundada pelo ex-cientista-chefe da OpenAI, Ilya Sutskever, levantou um bilhão de dólares em capital para atingir sua meta de desenvolver sistemas de IA superinteligentes seguros.
Sutskever foi cofundador da empresa com Daniel Gross, que liderou os esforços de IA na Apple, e Daniel Levy, que trabalhou anteriormente na OpenAI, há apenas três meses, e a empresa agora está avaliada em US$ 5 bilhões, de acordo com para a Reuters.
A SSI atualmente tem apenas 10 funcionários, incluindo os três cofundadores, e adquirir talentos de IA de ponta adicionais é uma prioridade para seu novo financiamento, bem como aumentar seu poder de computação. Sutskever é o cientista-chefe da empresa, Levy é o cientista principal, e Gross está supervisionando o poder de computação e a captação de recursos.
Esta é a primeira vez que uma start-up arrecadou a incrível quantia de um bilhão de dólares para uma rodada de capital semente. No entanto, com Sutskever, Gross e Levy liderando a empresa, os investidores estão prevendo retornos enormes. Sutskever, especialmente, é uma parte essencial do sucesso da OpenAI e haverá expectativas de que a SSI possa replicar seu sucesso.
Os investidores incluem as empresas de capital de risco Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel. Isso apesar do crescente senso dentro das empresas de investimento de que o boom da IA pode ter dificuldades para gerar lucro suficiente para acompanhar seus custos crescentes.
“É importante para nós estarmos cercados por investidores que entendam, respeitem e apoiem nossa missão, que é dar um salto direto para a superinteligência segura e, em particular, passar alguns anos fazendo P&D em nosso produto antes de colocá-lo no mercado”, disse Gross em uma entrevista, reconhecendo que levará algum tempo até que os investidores vejam um retorno.
Por que Ilya Sutskever deixou a OpenAI?
Sutskever deixou a OpenAI, empresa que ele ajudou a fundar, em maio deste ano, depois de fazer parte de um grupo que votou para remover o CEO Sam Altman do conselho.
Após a decisão ser revertida, Sutskever foi removido do conselho e decidiu deixar a empresa. A OpenAI então dissolveu a equipe Superalignment voltada para a segurança que Sutskever estava supervisionando.
A Safe Superintelligence diz que está priorizando a contratação de pessoas que se alinhem à sua cultura, e Gross afirmou que eles passaram horas avaliando os candidatos quanto ao “bom caráter”.
Eles estão buscando pessoas interessadas no trabalho em si, em vez de no hype da IA, e pessoas com capacidades, em vez de experiência em IA. “Uma coisa que nos anima é quando você encontra pessoas interessadas no trabalho, que não estão interessadas na cena, no hype”, disse Gross.