O sucesso do ChatGPT poderia ter chegado mais cedo, diz ex-pesquisador de IA do Google.


0

Em 2017, um grupo de oito pesquisadores em aprendizado de máquina do Google fez uma verdadeira revolução no mundo da inteligência artificial ao publicar um artigo chamado “Attention Is All You Need”. Esse trabalho apresentou a arquitetura Transformer, que se tornou a base de quase todos os modelos de IA generativa de destaque que conhecemos hoje.

Mas o que exatamente é essa arquitetura Transformer? De forma simples, ela permite que sistemas de IA transformem pedaços de dados, conhecidos como “tokens”, em outra forma de saída desejada, utilizando uma rede neural. Essa capacidade de “transformar” informações é o que possibilitou o crescimento explosivo da IA moderna. Modelos de linguagem como o GPT-4 e o ChatGPT, por exemplo, são alimentados por variações dessa arquitetura. Além disso, ela também é a força motriz por trás de modelos de síntese de áudio, como o NotebookLM do Google e o Advanced Voice Mode da OpenAI, bem como de modelos de vídeo, como o Sora, e de síntese de imagens, como o Midjourney.

Recentemente, durante o TED AI 2024, realizado em outubro, um dos pesquisadores que esteve à frente desse projeto inovador, Jakob Uszkoreit, compartilhou suas experiências com a Ars Technica. Ele falou sobre o desenvolvimento dos Transformers, o trabalho inicial do Google em grandes modelos de linguagem e sua nova empreitada na computação biológica.

Essas inovações não apenas moldaram o presente da inteligência artificial, mas também abrem portas para um futuro promissor, onde a interação entre humanos e máquinas se torna cada vez mais fluida e natural. A evolução dos Transformers é um exemplo claro de como a pesquisa e a tecnologia podem se unir para criar soluções que transformam a maneira como vivemos e trabalhamos.

Redação Confraria Tech.

Referências:
ChatGPT’s success could have come sooner, says former Google AI researcher


Like it? Share with your friends!

0
admin