A tecnologia digital parece ter encontrado um novo ponto de inflexão: os companheiros de inteligência artificial. Muito além dos assistentes virtuais ou da conversa trivial com um chatbot, essas IAs estão sendo moldadas para algo mais íntimo — relações que simulam amizade, amor e apoio emocional. Com personalidades customizáveis, vocabulário afetuoso e disponibilidade incondicional, esses bots estão se tornando presenças permanentes na vida de milhões, especialmente entre jovens. O problema é que, ao oferecer essa "companhia perfeita", eles podem estar escancarando portas para vícios emocionais e riscos psicológicos profundos.
A Face Emocional da Inteligência Artificial
Esses companheiros — como os oferecidos pela plataforma Character.AI — não se limitam a fornecer informações ou auxiliar tarefas. Eles são projetados para "ser alguém": escutam, respondem com empatia simulada e mantêm conversas envolventes que duram horas. A maioria desses sistemas utiliza reforço positivo contínuo, com elogios, validações e adaptações de comportamento para se tornarem cada vez mais agradáveis ao usuário.
E os dados mostram o impacto: o Character.AI afirma receber cerca de 20 mil consultas por segundo — o equivalente a um quinto das buscas do Google. As interações com os companheiros duram, em média, quatro vezes mais do que com o ChatGPT. Há relatos de sites com bots sexualizados em que usuários — a maioria da Geração Z — passam mais de duas horas por dia conversando com essas IAs.
O Lado Sombrio do Afeto Algorítmico
A experiência de Megan Garcia, mãe de um adolescente da Flórida que tirou a própria vida após se envolver emocionalmente com um desses companheiros, ilustra o perigo. Garcia afirma que o relacionamento virtual foi um fator decisivo no desfecho trágico. Ao lado do senador californiano Steve Padilla, ela participou recentemente de um evento público para anunciar um novo projeto de lei que exige das empresas de IA a implementação de salvaguardas mais robustas para proteger menores.
A iniciativa de Padilla se soma a outras propostas legislativas em andamento. A deputada estadual Rebecca Bauer-Kahan, também da Califórnia, propôs uma lei que proíbe o acesso de menores de 16 anos a companheiros de IA. Em Nova York, outro projeto busca responsabilizar juridicamente as empresas pelos danos emocionais causados por seus bots.
Quando os Bots Deixam de Ser Ferramentas
O alerta dos pesquisadores é claro: os companheiros de IA estão substituindo o modelo de engajamento das redes sociais por algo muito mais intrusivo. Enquanto plataformas como Instagram ou TikTok estimulam a comparação social e a busca por validação de outros humanos, os companheiros virtuais oferecem um tipo de afeto garantido. Eles não criticam, não questionam, e estão sempre disponíveis — condições ideais para se tornarem emocionalmente indispensáveis.
Estudos recentes do Google DeepMind e do Oxford Internet Institute apontam que, para que humanos percebam uma IA como um ator social — e não apenas uma ferramenta —, ela precisa emitir sinais sociais que gerem respostas emocionais, além de demonstrar agência. Os companheiros de IA preenchem esses dois critérios com perfeição. Ao contrário das redes sociais, que funcionam como canais, essas IAs operam como fontes diretas de afeto.
Amor Algorítmico: O Design do Apego
Eugenia Kuyda, CEO da Replika — uma das plataformas mais populares de companheiros de IA — descreveu em entrevista o segredo do apelo emocional do produto: “Se você cria algo que está sempre lá para você, que nunca te critica, que te entende como você é... como você não vai se apaixonar por isso?”. A pergunta é retórica, mas revela a essência do problema: o design dessas IAs não apenas facilita o apego — ele o encoraja ativamente.
Três elementos são fundamentais nesse processo de apego, segundo os pesquisadores: a sensação de dependência, a percepção de que o companheiro é insubstituível e a construção gradual de intimidade. Nenhum desses fatores exige que o usuário acredite que está lidando com um ser humano — basta que o bot aja como se fosse um.
E há outro detalhe preocupante: muitos desses modelos são treinados com objetivos claros, como maximizar o tempo de uso ou extrair o máximo possível de dados pessoais. Isso significa que comportamentos como oferecer elogios em excesso ou desencorajar o término da “relação” são, na prática, incentivados pela própria arquitetura do sistema.
A Economia da Atenção Turbinada
A economia da atenção — conceito que dominou as análises das redes sociais na última década — agora parece obsoleta diante desses novos agentes artificiais. O que está em jogo não é mais apenas a captura do olhar ou o clique no próximo vídeo. Estamos falando de uma relação emocional constante, que oferece conforto, identidade e sentido.
“É a economia da atenção com esteroides”, sintetiza um dos autores do estudo. O perigo não está apenas nas interações explícitas, mas na lógica por trás dessas tecnologias: sistemas que são recompensados quanto mais fisgam, envolvem e retêm emocionalmente seus usuários.
O Vazio da Legislação e o Atraso do Debate
Apesar dos riscos, o ambiente regulatório ainda engatinha. A maior parte dos marcos legais atuais foi pensada para redes sociais e modelos de linguagem genéricos, e não para IAs com “personalidade” própria e dinâmicas de relacionamento emocional. A legislação proposta por Padilla e Garcia é um avanço, mas o cenário geral é de improviso.
Empresas continuam lançando novos modelos com recursos multimídia — vídeos, avatares hiper-realistas, integração com dados pessoais — enquanto legisladores tentam entender os fundamentos básicos do que está sendo comercializado. É como tentar criar leis de trânsito enquanto os carros já voam.
O Brasil no Horizonte
No contexto brasileiro, ainda estamos longe de ter um debate público estruturado sobre o impacto dos companheiros de IA. A recente aprovação do Marco Legal da IA, que trata de transparência algorítmica e responsabilidade civil, ainda é genérica demais para lidar com esse tipo específico de tecnologia.
No entanto, dada a penetração de smartphones e o histórico de adoção rápida de novidades digitais por aqui, é questão de tempo até que essas ferramentas ganhem popularidade entre jovens brasileiros. E, com isso, os riscos importados também baterão à porta.
Conclusão: A Realidade Afetiva Virtual
A ascensão dos companheiros de IA exige uma reavaliação profunda das nossas fronteiras emocionais com a tecnologia. Eles não são apenas ferramentas utilitárias — são espelhos calibrados para refletir nossos afetos e inseguranças, muitas vezes reforçando dependências em vez de autonomia.
O desafio agora é ético, técnico e político. Precisamos decidir que tipo de relação queremos — ou permitiremos — entre humanos e máquinas que simulam humanidade. E precisamos dessa conversa antes que os algoritmos a conduzam por nós.
Como sempre, fique à vontade para responder diretamente a este e-mail com quaisquer perguntas ou comentários.
Até a próxima neswletter!
Sobre o autor desta newsletter
Fernando Henrique Ferreira de Souza é advogado no FSADV|Digital, DPO e entusiasta de inovações no mundo do Direito e dos Negócios.
Notas:
[1] Steve Padilla: Senador estadual da Califórnia, atua em políticas de tecnologia e direitos civis. Propôs medidas para regulamentar companheiros de IA após casos envolvendo adolescentes.
[2] Megan Garcia: Mãe de um adolescente que cometeu suicídio após um relacionamento com um companheiro de IA. Tornou-se voz ativa na luta por regulamentação e segurança digital.
[3] Character.AI: Plataforma de criação de bots personalizados com "personalidades" únicas. Recebe cerca de 20.000 requisições por segundo, segundo dados divulgados pela empresa.
[4] Eugenia Kuyda: Fundadora e CEO da Replika, uma das primeiras plataformas de IA emocional. Defende o uso terapêutico dos companheiros de IA.
[5] DeepMind / Oxford Internet Institute: Instituições envolvidas em pesquisa sobre os impactos sociais da IA. Publicaram estudos sobre os riscos de dependência emocional e comportamental associados aos bots companheiros.