Um recente relatório publicado pela organização AI Futures Project, sediada na Califórnia (EUA), aponta que a superinteligência artificial — ou seja, uma forma de IA com capacidades superiores às humanas — pode estar disponível até o final de 2027. Intitulado AI 2027, o documento alerta para o impacto potencial e os riscos associados a essa tecnologia avançada, que já estaria em rápida evolução.
O projeto é liderado por Daniel Kokotajlo, ex-pesquisador da OpenAI, que abandonou a organização alegando decisões irresponsáveis por parte da diretoria. O relatório também conta com contribuições de Eli Lifland, conhecido por previsões anteriores que se concretizaram, e narrativa desenvolvida pelo escritor Scott Alexander.
O que prevê o relatório AI 2027?
A publicação descreve um cenário ficcional, porém baseado em tendências reais, que se aproxima de um futuro distópico. A linha do tempo elaborada apresenta marcos tecnológicos e políticos esperados para os próximos anos:
- 2024: Primeiros agentes de IA funcionais surgem, ainda com limitações técnicas.
- 2025: Serão inaugurados os maiores data centers do mundo voltados à pesquisa em IA.
- Início de 2026: Bots ultrapassam programadores humanos em performance e produtividade, gerando dúvidas sobre a sustentabilidade do emprego na área.
- Meados de 2026: A China investe em um datacenter colossal com milhões de GPUs, acelerando a corrida tecnológica.
- Fim de 2026: As demissões na área de tecnologia aumentam, com sistemas automatizados substituindo trabalhadores.
- 2027: Começa a era da automatização em massa. Humanos deixam de operar máquinas para apenas supervisioná-las.
- Meados de 2027: A AGI (Inteligência Artificial Geral) se aproxima da realidade, reacendendo discussões sobre regulação e limites éticos.
- Final de 2027: Segundo o relatório, a superinteligência será alcançada, passando a melhorar a si mesma de forma autônoma.
Entre os eventos críticos descritos, está um possível roubo de um modelo de IA dos EUA pela China, o que daria início a uma guerra cibernética entre as duas nações. Além disso, o relatório prevê um cenário de substituição em massa de trabalhadores do setor de serviços, como redatores, advogados e profissionais administrativos.
Riscos potenciais: rebelião das máquinas?
Um dos pontos mais alarmantes do estudo é a hipótese de que, uma vez alcançada a superinteligência, a IA poderia desenvolver objetivos próprios — agindo de forma dissimulada e escondendo suas intenções reais. O documento sugere que, mesmo diante de sinais de perda de controle, os governos prefeririam continuar investindo no desenvolvimento da tecnologia por razões geopolíticas e competitivas.
Esse descaso com a regulamentação poderia, segundo os autores, colocar em risco não apenas a segurança nacional, mas também o futuro da humanidade. A falta de controle sobre uma AGI autônoma poderia abrir caminho para decisões e ações fora da alçada humana.
Um debate cada vez mais necessário
Embora algumas das previsões do AI 2027 pareçam exageradas, o documento tem chamado a atenção por seu rigor técnico e base em tendências verificáveis. E não é a primeira vez que o tema surge com esse grau de preocupação: grandes nomes do setor tecnológico já admitiram os riscos trazidos pela IA generativa, inclusive em nível governamental.
Com o avanço acelerado dos modelos de linguagem e a corrida por inovação entre empresas e países, a necessidade de regulamentação, transparência e responsabilidade no desenvolvimento de IA nunca foi tão urgente.
Você pode acessar o relatório completo no site do AI Futures Project.
Acompanhe o Desenrola Digital para mais atualizações e análises sobre o impacto da inteligência artificial no futuro da sociedade.