Script = https://s1.trrsf.com/update-1734630909/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

O que se sabe sobre os planos da Apple para Siri com inteligência artificial

A companhia está pesquisando diversos caminhos para aprimorar o uso da Siri com inteligência artificial

6 mai 2024 - 12h24
(atualizado às 12h26)
Compartilhar
Exibir comentários
Logo da Apple em loja em Paris, França
6/3/2024 REUTERS/Gonzalo Fuentes/Arquivos
Logo da Apple em loja em Paris, França 6/3/2024 REUTERS/Gonzalo Fuentes/Arquivos
Foto: Reuters

Rumores de que a Apple vai lançar uma Siri melhorada, com uso de inteligência artificial, começam a penetrar no mercado.

Nas últimas semanas, houve relatos de que a empresa estaria conversando com a OpenAI e com o Google a respeito de fornecimento para algumas de suas funcionalidades de IA, enquanto a companhia também trabalha em seu próprio modelo, chamado Ajax.

A ideia de uma Siri melhor aparece por meio de muitas das pesquisas da Apple sobre Large Language Model (Grande Modelo de Linguagem, em tradução livre), o que tornaria os assistentes virtuais mais inteligentes. 

De acordo com uma reportagem da Bloomberg, no iOS 18, a Apple planeja ter todas as suas funcionalidades de IA rodando em um modelo totalmente offline e no dispositivo. 

Em um artigo chamado “LLM in a flash: Inferência eficiente de modelos de linguagem grandes com memória limitada”, pesquisadores da Apple desenvolveram um sistema para armazenar os dados de um modelo, que geralmente são armazenados na RAM do seu dispositivo, no SSD

"Demonstramos a capacidade de executar LLMs até duas vezes o tamanho da DRAM disponível [no SSD]", escreveram os pesquisadores, "alcançando uma aceleração na velocidade de inferência de 4-5x em comparação com métodos de carregamento tradicionais na CPU, e 20-25x na GPU." 

Por que a marca da Apple é uma maçã mordida? Por que a marca da Apple é uma maçã mordida?

Eles descobriram, portanto, que ao aproveitar o armazenamento mais barato e disponível em seu dispositivo, os modelos podem rodar mais rápido e de forma mais eficiente.

Além disso, os pesquisadores da Apple também criaram um sistema chamado EELBERT, que essencialmente pode comprimir um LLM para um tamanho muito menor sem torná-lo significativamente pior. 

Em geral, a Apple vem tentando resolver uma tensão central no mundo dos modelos: quanto maior um modelo fica, melhor e mais útil ele pode ser, mas também mais difícil de manusear, faminto por energia e lento. A empresa tenta equilibrar esses dois aspectos.

Siri melhorada

Uma visão atual sobre a inteligência artificial é sobre seu uso recorrente em produtos de assistentes virtuais, com muito conhecimento e que, em geral, possuem a tarefa de lembrar e informar o usuário sobre diversos assuntos. 

Por isso, um grupo de pesquisadores da Apple está trabalhando em uma alternativa para o uso da Siri sem a necessidade de uma palavra de ativação. A ideia é que o dispositivo consiga simplesmente intuir se o usuário está falando com ele. 

Segundo os pesquisadores, o maior desafio é significativamente maior do que a detecção de gatilho de voz, "já que pode não haver uma frase de gatilho líder que marque o início de um comando de voz”.

Ou seja, esse pode ser o motivo principal para que o outro grupo esteja desenvolvendo um sistema para detectar palavras de ativação. Outro artigo fala sobre o treinamento de um modelo para entender melhor palavras raras, que muitas vezes não são entendidas pelos assistentes.

Independente do caso, o apelo de um LLM é que ele pode, teoricamente, processar muito mais informações com uma velocidade muito maior. 

No estudo sobre palavras de ativação, os pesquisadores perceberam que, em vez de filtrar todos os sons desnecessários, deixar o modelo processar todos os sons e decidir o que é importante e o que não é tornava a palavra de ativação mais confiável.

A Apple está investindo esforços para aprimorar a compreensão e comunicação da Siri. Outro artigo apresentou um sistema chamado STEER (Reconhecimento de Extensão-Expansão de Turno Semântico, em tradução livre), que busca melhorar a interação bidirecional com o assistente, distinguindo entre perguntas de acompanhamento e novas perguntas.

Em outro, usa LLMs para entender melhor as "consultas ambíguas" para descobrir o que o usuário quer dizer, independente da forma que está sendo dito.

"Em circunstâncias incertas", escreveram eles, "agentes conversacionais inteligentes podem precisar tomar a iniciativa de reduzir sua incerteza fazendo boas perguntas proativamente, resolvendo assim problemas de forma mais eficaz." Outro artigo também visa ajudar nisso: os pesquisadores usaram LLMs para tornar os assistentes mais compreensíveis quando estão gerando respostas.

Apesar de centenas de especulações vistas até agora, a Apple parece estar investindo fortemente em inteligência artificial, e isso pode levar a uma transformação significativa do iPhone, possivelmente até tornando a Siri mais útil.

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade