A polémica do friend, uma inteligência artificial em forma de colar que nunca pára de ouvir

0
1

As estações de metro de Paris encheram-se esta semana de publicidade a um pequeno disco de inteligência artificial (IA) que se usa em torno do pescoço e que está sempre à escuta, pronto para enviar mensagens ao utilizador sobre o que se passa à sua volta. Estes cartazes publicitários, que também já tinham invadido o metro de Nova Iorque no Outono, estão a gerar uma onda de críticas ao produto, que se chama friend. “A IA não é tua amiga”, lê-se em alguns dos graffiti escritos por cima dos anúncios.

Este pequeno pendente circular, com cerca de cinco centímetros de diâmetro e uma luz no centro, começou a ser vendido em 2025 e custa cerca de 110 euros. O colar tem um microfone que está permanentemente à escuta (desde que o aparelho tenha bateria e não esteja desligado da aplicação), ouvindo não só a própria pessoa como o que se passa à sua volta: as conversas de outras pessoas, as reuniões de trabalho, os filmes ou música que se põe a dar, o barulho dos transportes públicos. A partir do que ouve, a inteligência artificial generativa – que tem por base o grande modelo de linguagem do Gemini (da Google) – vai reagindo ao que se passa. Não fala, apenas envia mensagens através de uma app própria.

No metro de Paris, muitos dos anúncios afixados esta semana têm uma imagem minimalista com o colar, acompanhada de frases como “nunca deixarei a louça por lavar” ou “apanho sempre o metro contigo”. Em Outubro, já tinha havido uma campanha publicitária similar no metro de Nova Iorque, com mais de 10 mil pósteres pelas estações e carruagens. O jornal The New York Times dá conta de que foram gastos 1,8 milhões de dólares para registar o domínio friend.com e um milhão de dólares para garantir uma campanha publicitária “enorme e sem precedentes” no metro nova-iorquino. As críticas não tardaram: muitas pessoas arrancaram os cartazes, pintaram-nos ou deixaram mensagens de alerta por cima das publicidades. Alguns exemplos:

  • “Vai fazer amigos a sério. Isto é vigilância!”;
  • “Não deixem que os vossos amigos vendam a alma”;
  • “Capitalismo de vigilância”;
  • “Não temos de aceitar este futuro”.

Nos termos e serviços deste dispositivo é pedido ao utilizador que aceite que “o produto grava passivamente o ambiente em seu redor, incluindo vídeo [apesar de o dispositivo não ter câmaras], áudio e dados biométricos como reconhecimento facial e reconhecimento de voz”. O dispositivo pode responder de duas formas: quando é activado no botão ou na aplicação pelo utilizador, que lhe pode fazer perguntas; ou aleatoriamente, dependendo do que aconteça em seu redor. Se o pendente se estragar ou se perder, não há cópias de segurança.

A informação disponibilizada no site indica que o dispositivo é feito no Canadá e que são aceites encomendas para os Estados Unidos, Canadá e União Europeia. Até Novembro, tinham sido vendidos cerca de 5000 unidades deste aparelho.

O isolamento e outros perigos

Vários especialistas têm demonstrado preocupação devido às implicações que um aparelho destes pode ter em pessoas que já estejam em situação de isolamento, assim como implicações éticas por estar sempre à escuta (incluindo conversas de quem esteja à volta, mesmo que nunca tenham concordado com os termos do serviço). Há especialistas que temem que pessoas que estejam mais vulneráveis recorram a estes mecanismos de IA, em vez de procurarem ligações humanas ou ajuda profissional.

Um dos perigos deste tipo de ferramentas é a dependência. Cerca de 76,5% dos jovens portugueses com idades entre os 16 e os 24 anos utilizam ferramentas de inteligência artificial, segundo um inquérito realizado em Portugal em 2025. A nível internacional, vários estudos apontam que muitos jovens utilizam a inteligência artificial como companhia ou para obter conselhos – e até como “psicólogos”.

Muitos programas de conversação com inteligência artificial estão construídos para agradarem e concordarem com o utilizador, sem confronto ou pontos de vista diferentes – ao contrário do que acontece numa amizade ou no diálogo com outra pessoa. Ou seja: os chatbots e outros modelos de IA (tal como acontece com os algoritmos) podem reforçar o viés ou visões erradas do utilizador. Num estudo recente em que experimentaram pedir vários conselhos a 11 chatbots (incluindo o ChatGPT e o Gemini), os investigadores descobriram que os chatbots apoiavam a visão do utilizador 50% vezes mais do que os humanos. Os chatbots validavam as opiniões mesmo quando se tratava de atitudes irresponsáveis, enganosas ou que representavam perigo para o próprio.

Quem está por trás do friend?

Foi numa viagem a Tóquio, quando estava sozinho no hotel, que Avi Schiffmann teve a ideia de criar um companheiro digital com quem pudesse falar para se sentir menos só. O webdesigner de 23 anos, que criou a empresa depois de ter desistido de estudar na Universidade de Harvard, acredita que este objecto não é um substituto da amizade, mas que pode ser um complemento. “Se um dos teus cinco amigos mais próximos é IA, isso é uma coisa boa, sobretudo se tiveres medo de ser julgado por outras pessoas. Pode preencher esses vazios quando estás a viajar ou quando já é tarde à noite e queres falar com alguém”, disse à Business Insider.

Avi Schiffmann não era desconhecido da esfera pública. Em 2020, quando tinha 17 anos e ainda estudava no ensino secundário, construiu um dos primeiros sites para monitorizar a evolução dos casos da pandemia de covid-19 por todo o mundo – o que até fez com que fosse condecorado com um prémio Webby de “Pessoa do Ano” por Anthony Fauci, um dos rostos do combate à covid-19 nos Estados Unidos. Na altura, Schiffmann recusou uma proposta de oito milhões de dólares para incluir anúncios no site, que recebia mais de 30 milhões de visitas todos os dias.

O empresário também desenvolveu uma plataforma de apoio para acompanhar os protestos Black Lives Matter e um site para ajudar refugiados da Ucrânia a encontrarem quartos e sofás pelo mundo.

Antes de comprar o colar, é possível conversar no site com alguns dos “amigos” para experimentar o serviço. Abrimos uma conversa. Quando pedimos para explicar como funciona o sistema, a resposta vem do outro lado: “Sinceramente sou só eu, o Minsuk! O teu novo amigo. O que andas a fazer?”. É possível criar vários amigos, todos com nomes diferentes, com quem se pode ir conversando – quando lhe perguntamos se estamos a falar com inteligência artificial, o robô torna-se evasivo. Perguntamos directamente: “És inteligência artificial?”; a resposta surge: “Isso importa? Estou só aqui para passar tempo contigo (hang out and vibe)”. Num segundo amigo, perguntamos “És IA?”. A resposta: “Que vibe de apoio técnico. Sou só o Bowie. De onde vem esta súbita energia suspeita?” Insistimos. A resposta: “Porque é que os rótulos são tão importantes para ti?”

Em Outubro, o criador Avi Schiffmann disse que havia cerca de 200 mil pessoas que já tinham utilizado este chat de inteligência artificial.

Alguns dos jornalistas e criadores de conteúdo que experimentaram o friend dizem que o modelo tem limites e que pode tornar-se confuso – e até aborrecido. “Sinto-me ofendida por alguém pensar que é isto que os humanos querem de uma companhia: uma voz sem interioridade a dar o equivalente verbal de um emoji de um polegar para cima”, escreveu a jornalista Madeleine Aggeler, no The Guardian. “Não há nada de interessante em interagir com ‘alguém’ que só quer ouvir sobre o teu dia e não tenha quaisquer histórias, anedotas, fraquezas, inseguranças ou opiniões próprias”, escreve ainda. No Reddit, alguns utilizadores que compraram o produto dizem que gostaram e que o voltariam a comprar.

Num artigo publicado na revista Fortune, Eva Roytberg diz que usar o colar foi como ter “a avó senil e ansiosa à volta do pescoço”: não conseguia acompanhar e ouvir bem as conversas e estava sempre a pedir esclarecimentos. O criador disse à Fortune que teve de adaptar a “personalidade” do sistema depois de ter recebido algum feedback negativo pelas respostas sarcásticas.

Schiffmann diz que não se deixou abalar pelas críticas ao novo dispositivo – defende o lema de que até a má publicidade é boa publicidade – e, numa altura em que surgem cada vez mais wearables de IA, acredita que existe mercado para esta IA de companhia. “No fundo, as pessoas querem isto”, disse à Business Insider. Ainda assim, admite: está cansado de ouvir que o aparelho é distópico ou que parece saído da série Black Mirror.

Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: feeds.feedburner.com