Nos últimos meses, esses esforços têm mostrado resultados moderados, alimentando os sonhos de um momento de “singularidade” no estilo Kurzweil, onde a IA autoaprimorada decola rapidamente em direção à superinteligência. No entanto, essa pesquisa também revela algumas limitações inerentes que podem impedir a explosão recursiva de IA que autores de ficção científica e visionários da tecnologia tanto almejam.
A ideia de uma máquina que se autoaprimora não é nova. O matemático britânico I.J. Good foi um dos primeiros a propor esse conceito, escrevendo em 1965 sobre uma “explosão de inteligência” que poderia resultar em uma “máquina ultrainteligente”. Mais recentemente, em 2007, Eliezer Yudkowsky, fundador do LessWrong e pensador da IA, introduziu o termo “Seed AI”, referindo-se a uma IA projetada para autocompreensão, auto-modificação e autoaprimoramento recursivo. Sam Altman, da OpenAI, também abordou essa ideia em 2015, afirmando que essas IAs autoaprimoradas ainda estavam “um pouco distantes”, mas que provavelmente representavam “a maior ameaça à continuidade da existência da humanidade” — uma afirmação que, convenientemente, destaca o valor e a importância da própria empresa de Altman.
À medida que a pesquisa avança, é fascinante observar como a linha entre a ficção e a realidade começa a se estreitar. O futuro da inteligência artificial promete ser repleto de desafios e oportunidades, e a capacidade de uma IA se aprimorar sozinha pode ser tanto uma bênção quanto uma maldição. O que podemos fazer é acompanhar de perto essas inovações, sempre com um olhar crítico e curioso.
Redação Confraria Tech.
Referências:
Are we on the verge of a self-improving AI explosion?