Tecnologia usa inteligência artificial e consegue manter diálogo com pessoas

O telefone toca e, do outro lado, alguém educado quer agendar um horário no cabeleireiro ou reservar uma mesa em um restaurante. A desenvoltura engana, mas é um robô que acabou de dizer “Alô”. A cena parece coisa de ficção científica, mas não é. O Google a apresentou como a mais nova função a ser integrada ao seu assistente pessoal. Só que essa é apenas uma das habilidades que os robôs da companhia estão ganhando para fazer a inteligência artificial pegar de vez.
“A inteligência artificial representa uma gigantesca oportunidade de transformar diversas áreas”, afirma Sundar Pichai, CEO do Google.
O robô telefonista em questão é o Google Assistente, o serviço da empresa que funciona como um secretário particular e rivaliza com Siri (Apple), Cortana (Microsoft) e Alexa (Amazon). Em comum, todos eles recebem pedidos ou recebem perguntas, via texto ou por comando de voz, e atendem como podem.
Um dos entraves é fazer uma dessas máquinas entender o que um humano quer dizer e então responder sem parecer robótica. Essa habilidade é chamada pelos cientistas de linguagem natural.
Boa parte das modificações anunciadas para o Assistente foram nessa linha. Com isso, ele passou a entender quando uma pessoa faz dois pedidos simultâneos (“apague a luz da cozinha e da sala”) e compreender melhor como uma informação se encaixa em um determinado contexto (esta noite, depois de amanhã).
‘Alô, é o Google’
A melhora na habilidade de ouvir só não ganhou mais destaque porque o Assistente ganhou a capacidade de conversar. E mais que isso: conversar com estranhos após telefonar para eles a pedido dos usuários. “A voz é superpoderosa”, diz Lilian Rincón, diretora do Google responsável pelo produto.
O recurso foi pensado para situações em que é preciso agendar um compromisso e a única opção é dar um telefonema. Para poupar tempo, o robô faz isso. “60% dos estabelecimentos não têm presença online, e as pessoas não gostam de pegar o telefone. Isso vai ajudá-las.”
A novidade ainda não tem data para chegar ao Assistente, porque o Google não se decidiu se avisará quem estiver do outro lado da linha que é uma máquina falando.
“Imagine que você é um negócio, eu te ligo e digo, ‘Oi, eu sou o Google’.”
Antes de chegar aos usuários, o recurso será usado internamente para contatar estabelecimentos e atualizar horários de funcionamento e outras informações listadas no Google Maps. Quando for liberado, seu uso não será indiscriminado. “Não vai ser algo do tipo como, ‘Ligue para meu namorado e termine com ele por mim'”, brinca Rincón. A inteligência não está apenas em poder bater papo ao telefone. Após agendar o compromisso, o Assistente o inclui na agenda do celular e manda lembretes. Se não conseguir completar a ligação, anota um recado e pergunta ao usuário se pode ligar novamente.
Outro dos novos truques aprendido pelo Assistente é ouvir um pedido por informações de um produto e mostrar como resposta imagens e preço. Dependendo da loja que ofertar o item, a conversa pode acabar em uma compra. “As marcas já perceberam que isso é a próxima onda. Elas já querem construir esses apps de voz”, diz a diretora.
A partir das informações armazenadas nos serviços do Google, do Gmail ao calendário, o Assistente é capaz ainda de apresentar uma agenda de compromissos diários, que inclui até os trajetos para se chegar aos locais dos eventos.
Outro dos serviços repaginados para usar inteligência artificial a partir de informações pessoais é o Maps. Quando alguém buscar por restaurantes, ele passará a listar os que mais recebem visitantes — o segredo por trás disso é a mesma usada para atestar que uma rua está congestionada.
O carro-chefe do banho de inteligência artificial que o Maps recebeu, no entanto, é uma função destinada a indicar qual a probabilidade de um restaurante agradar um usuário.
“Você não quer saber se é só um restaurante de comida baiana, mas se é um lugar de que você vai gostar”, diz Luiz Barroso, o brasileiro que é vice-presidente de Maps.
Para chegar a isso, o Google vai, de um lado, levantar tudo o que sabe a respeito das preferências culinárias do usuário e, de outro, reunir tudo o que sabe sobre o restaurante em questão. Depois, vai cruzar os dois perfis e ver se batem.
“Quando a gente mistura o que a gente sabe sobre o mundo com o que a gente sabe sobre o usuário, isso ajuda a simplificar o processo de escolher lugares para você visitar com sua família e com seus amigos.”
“Com pouca informação dos usuários e muita informação do produto, a gente consegue fazer a mágica acontecer. Digamos que você visita cinco restaurantes com uma certa frequência e existe uma coisa que liga esses cinco restaurantes. Quando analisamos, começamos a entender que existe mais restaurantes parecidos.”
Dito assim, parece fácil. Só que os algoritmos por trás desse processo reúnem informações em torno de diversas verticais, como:
- A pessoa gosta de jantar em locais próximos à casa dela?
- Que tipo de comida?
- A decoração do lugar importa?
As respostas a todas essas e outras perguntas são combinadas para formar um “mapa da mina” para achar locais com o mesmo perfil. Só que apenas os robôs conseguem entendê-lo.
“Esses modelos criam um vetor de números que descrevem o lugar, mas que não dizem nada em particular para um ser humano. E essa é a coisa louca.”
Privacidade
Tanto Maps como o Assistente usam intensamente as informações que o Google coleta sobre as pessoas. Rincón e Barroso dizem que os usuários podem controlar como os dois serviços usam seus dados.
“As pessoas sempre têm controle total de suas atividades. Você pode ver o que o Google Assistente ouve. Se você não quer que ele ouça, pode deletar imediatamente. E ele não ouve a não ser que você dê permissão a ele”, afirma Rincón.
Ela reitera que a intenção, por ora, não é fazer dinheiro com o Assistente ou qualquer outro recurso que use inteligência artificial.
As informações foram tiradas do G1.