Script = https://s1.trrsf.com/update-1734029710/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Alexa: veja quatro pontos para entender o fracasso da assistente da Amazon na nova era da IA

Gigante da tecnologia não conseguiu acompanhar rivais em projetos ligados a IA

23 jun 2024 - 17h10
Compartilhar
Exibir comentários

Em setembro de 2023, foi apresentada uma nova versão da inteligência artificial (IA) por trás da Alexa, um dos produtos mais populares da Amazon. No evento, foi demonstrado, por exemplo, que a assistente de voz passaria a responder aos comandos com uma voz mais natural e de forma mais precisa do que antes.

O problema é que essas atualizações nunca chegaram no meio bilhão de dispositivos Alexa vendidos mundialmente. De acordo com ex-funcionários da empresa ouvidos pela revista Fortune, a demonstração foi feita com tecnologias que não estavam prontas para serem implementadas. Isso significa que a Amazon começou a ficar para trás na nova era da IA em relação a concorrentes como OpenAI, Google, Microsoft, Meta e até Apple.

Alexa, da Amazon, está ficando para trás na corrida da IA
Alexa, da Amazon, está ficando para trás na corrida da IA
Foto: Taba Benedicto/Estadão / Estadão

Confira os quatro pontos que explicam o fracasso da estratégia da Amazon em relação à assistente de voz.

Falta de dados e de chips

Segundo pessoas que trabalharam na Amazon, a nova inteligência artificial da Alexa foi treinada com poucas unidades de dados. Isso pode ser explicado, entre outros fatores, pela preferência da empresa em usar seus próprios anotadores de dados, ou seja, indivíduos responsáveis pela rotulação de dados. Esse tipo de modelo é muito lento porque resulta em relativamente pouca informação a ser processada, o que impediria o bom desenvolvimento do projeto.

Além disso, a equipe por trás da assistente de voz não tem acesso a grandes quantidades dos mais avançados chips especializados da Nvidia, utilizados no treinamento e execução dos modelos de inteligência artificial. Esses dispositivos têm sido muito procurados para o processamento de IAs, tornando-se os verdadeiros "cérebros" de centros de dados e supercomputadores responsáveis por implementar as inteligências artificiais mais poderosas do planeta.

Em uma publicação no X, antigo Twitter, Mihail Eric, ex-cientista sênior de aprendizado de máquina da Alexa AI, afirmou sobre a Amazon: "tínhamos todos os recursos, talento e impulso para nos tornarmos o líder de mercado inequívoco em IA conversacional". No entanto, diz, a maior porção dessa tecnologia nunca se concretizou, sobretudo porque a Alexa AI "estava repleta de problemas técnicos e burocráticos".

É importante notar que a Amazon não é a primeira empresa a ter dificuldades quando o assunto é integrar inteligência artificial à assistente de voz. A Apple também teve percalços quando integrou a IA a produtos como a Siri, assistente semelhante à Alexa.

Dificuldades para integrar tecnologia

Um dos principais obstáculos da Amazon é que a gigante teve dificuldades em integrar as tecnologias originais da Alexa com os novos LLMs. As tecnologias já presentes na Alexa nunca tiveram como meta torná-la uma boa interlocutora para conversas que vão e voltam (como um chatbot). Ela sempre focou mais nas chamadas declarações, como comandos e perguntas simples. Assim, de acordo com um cientista da equipe da assistente de voz, não estava comprovada a ideia de que um modelo de linguagem "poderia 'acender as luzes' quando você dissesse 'não consigo ver, acenda tudo'".

Os times da Alexa estavam descobrindo como implementar, em tempo real, a IA generativa, incluindo a criação de diálogos que poderiam ser utilizados para treinar esses modelos. "Agora imagine que você queira incentivar as pessoas a falar em uma linguagem que nunca aconteceu. De onde você vai tirar os dados para treinar o modelo? Você precisa criá-lo, mas isso traz uma série de obstáculos porque há um milhão de maneiras de as pessoas dizerem a mesma coisa", afirmou um ex-cientista de machine learning da Amazon.

Outro fator é o fato de que os modelos de linguagem não lidam muito bem com integrações de dispositivos e serviços de terceiros a esse tipo de tecnologia. Conforme declara um ex-gerente da Alexa, até mesmo o mais recente modelo GPT ou Gemini tem dificuldades para ir do diálogo à execução de uma tarefa por meio de outro software. Modelos de linguagem são conhecidos por não fazerem isso muito bem.

"Não são consistentes o suficiente, têm alucinações, fazem coisas erradas, é difícil criar uma experiência quando você está se conectando a muitos dispositivos diferentes", disse o ex-funcionário.

Amazon ignorou tecnologias como as do ChatGPT

A Amazon foi surpreendida pelo sucesso do ChatGPT, pois passou anos ignorando a tecnologia que turbina o chatbot da OpenAI: LLMs (ou grandes modelos de linguagem).

Um cientista de dados da Alexa diz que havia tentado apontar a importância da próxima onda de IA generativa em meados de 2022, baseando-se em dados para mostrar aos seus superiores. No entanto, segundo ele, não foi possível convencê-los de que a Amazon precisava mudar sua estratégia em relação à inteligência artificial. Como resultado, a companhia só começou a agir em direção a esse objetivo após o lançamento do ChatGPT.

Assim, no meio de 2023, muitos dos funcionários cujo trabalho era focar na Alexa não sabiam como a assistente de voz poderia lutar contra a IA generativa. Para ex-empregados, o projeto precisava de visão.

Até então, a experimentação da Amazon focava em sistemas muito menores e limitados do que aqueles usados pelo GPT - e, ainda assim, eles não estavam perto de poderem ser implementados pela marca.

Burocracia exagerada

Um ex-funcionário da Alexa AI relatou que a maioria das pessoas trabalhando no modelo de inteligência artificial se sentia exausta em razão da pressão constante para preparar o modelo para um lançamento que é repetidamente adiado. Outros também disseram sentir um ceticismo crescente em relação ao design da assistente de voz.

Um ex-cientista responsável pelo LLM por trás da Alexa, afirmou que "parece que a liderança não sabe nada sobre LLMs - eles não sabem de quantas pessoas precisam e qual deve ser o tempo esperado para concluir cada tarefa para criar um produto de sucesso como o ChatGPT."

Se, por um lado, Bezos queria equipes pequenas e dinâmicas, a Alexa é historicamente uma divisão enorme, com milhares de funcionários. Além disso, um cientista de aprendizado de máquina empregado pela Alexa Home afirmou que, enquanto seu grupo buscava formas de fazer a Alexa ajudar o usuário a controlar as luzes ou o termostato, o time de Alexa Music estava ocupado fazendo com que a assistente de voz atendesse a solicitações mais específicas. Assim, o grande grupo era dividido em pequenas equipes, cada um trabalhando em algo diferente.

Também existe o fato de que cada time tinha que construir sua própria relação com a equipe central de LLM da Alexa. Dessa forma, há relatos de que cada um tinha que passar meses trabalhando para fazer o grupo de LLM entender suas demandas e necessidades.

Estadão
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade