Ex-chefe da OpenAI levanta US$ 1 bilhão para startup com apenas 10 funcionários
Ilya Sutskever, co-fundador e ex-chefe de ciência da OpenAI, teria levantado um bilhão de dólares para sua startup de inteligência artificial com uma avaliação estimada de US$ 5 bilhões.
A empresa, Safe Superintelligence Inc. (SSI), anunciou o financiamento em uma atualização em seu site em 4 de setembro. Segundo a SSI, levantou US$ 1 bilhão de NFDG, a16z, Sequoia, DST Global e SV Angel.
Como o Cointelegraph relatou recentemente, Sutskever e o engenheiro Dan Levy deixaram a OpenAI em junho de 2024, menos de um ano depois que Sutskever formou a equipe de segurança “Superalignment” da empresa. Embora Sutskever tenha dito na época que estava saindo para buscar outras oportunidades, outros ex-funcionários sugeriram desentendimentos entre o CEO Sam Altman e outros membros da empresa e do seu conselho.
Segurança em inteligência artificial
A SSI parece ser uma concorrente direta da antiga empresa de Sutskever, OpenAI, com uma missão um pouco ajustada. O foco da SSI, segundo seu site, é construir um modelo de IA com mais inteligência do que os humanos de maneira segura.
Isso pode parecer familiar porque a Anthropic, outra empresa fundada por ex-funcionários da OpenAI, também afirma que sua missão é construir modelos de IA seguros. De fato, segundo o site da OpenAI, ela também está totalmente focada no desenvolvimento seguro de IA para o benefício da humanidade.
Onde a SSI diverge, até agora, é em sua afirmação de que desenvolverá apenas um produto: uma superinteligência segura.
Superinteligência
A OpenAI e a Anthropic oferecem produtos e serviços para clientes corporativos e para o público em geral. Ambas têm produtos principais, ChatGPT e Claude, respectivamente, que oferecem em uma base limitada e sem custo para os consumidores, com a opção de assinar para acesso adicional.
No entanto, de acordo com as próprias empresas, nenhum dos produtos se enquadraria na definição de “superinteligência”. Vale mencionar que “superinteligência” é um termo tipicamente atribuído ao filósofo Nick Bostrom. Em seu livro de 2014, “Superintelligence: Paths, Dangers, Strategies”, Bostrom discute um sistema de IA com capacidades cognitivas que superam em muito as dos humanos mais inteligentes. Ele previu, na época, que tal entidade poderia surgir tão cedo quanto “o primeiro terço do próximo século”.
Não há uma definição científica ou uma medida definida para "superinteligência". No entanto, com base no contexto, pode-se supor que a SSI está comprometida com a pesquisa e desenvolvimento até o momento em que possa lançar um modelo de IA que seja claramente mais capaz do que o humano médio.
Tanto a OpenAI quanto a Anthropic inicialmente alegaram que seu único propósito era construir uma IA de nível humano a serviço da humanidade. Mas construir os sistemas de IA mais poderosos do mundo custa bilhões de dólares usando métodos e tecnologias atuais.
Resta saber se a SSI, uma empresa com apenas 10 funcionários, usará seu caixa de US$ 1 bilhão para construir a primeira superinteligência do mundo ou o próximo concorrente do ChatGPT na área de chatbots.