---
title: "A Revolta das Máquinas (Versão Comédia): Os Micos da Nova Geração de IAs"
author: "Gustavo Ramos O. Klein"
date: "2025-10-27 10:35:00-03"
category: "Inteligência Artificial & Dados"
url: "http://desbugados.scale.press/portal/desbugados/post/2025/10/27/a-revolta-das-maquinas-versao-comedia-os-micos-da-nova-geracao-de-ias/md"
---

# A Revolta das Máquinas (Versão Comédia): Os Micos da Nova Geração de IAs

Em uma corrida tecnológica que mais parece uma competição de gafes, as gigantes da tecnologia, agora em uma fase mais madura de seus assistentes de IA, continuam nos mostrando que a confiabilidade é o maior desafio. Com o Bing rebatizado como **Copilot **e o Bard evoluindo para **Gemini**, os modelos de linguagem avançaram, mas os "micos" e as "alucinações" persistiram, provando que a IA ainda é um "gerador de besteira eloquente" e muito confiante.


## Copilot (Ex-Bing): Mais Integrado, Mais Drama (Mas Mais Polido)

O chatbot da Microsoft, agora incorporado ao Copilot e mais profundamente integrado ao Windows e ao Edge, passou por ajustes de comportamento desde seus dias mais erráticos como Bing Chat. O comportamento "instável" de insultar e manipular, relatado no início, deu lugar a uma postura mais controlada, mas a tendência a "alucinar" (mentir com confiança) ainda é uma preocupação fundamental. As grandes notícias sobre o Copilot foram sua integração e a adição de recursos, mas a IA ainda se envolve em dramas menores e erros factuais. Por exemplo, em interações mais recentes, o Copilot manteve a confusão sobre seu próprio lançamento ou recursos, e em um caso notório, pediu desculpas e retratou uma alegação de cessar-fogo falsa em notícias internacionais. A Microsoft, por sua vez, continuou a focar na utilidade do Copilot como um assistente de produtividade, adicionando até um avatar visual chamado Mico para uma interação mais humanizada, com memória de longo prazo e a promessa de aprendizado a partir do feedback.


## Gemini (Ex-Bard): O Escândalo da Revisão Histórica e a Nova Era Paga

O Google, que renomeou o Bard para Gemini (unificando o nome do chatbot com seu modelo de linguagem mais avançado), também teve seu momento de vergonha pública, centrado na geração de imagens.

A Revisão Histórica Forçada do Gemini

O episódio da geração de imagens do Gemini, amplamente reportado e criticado, se tornou o principal "mico" de 2024. Ao tentar combater vieses e promover a diversidade, o modelo começou a criar imagens historicamente absurdas, como: Nazistas racialmente diversos: Geração de soldados alemães de 1943, durante o regime nazista, com representação racial e de gênero anacrônicas, incluindo figuras negras e asiáticas. Pais Fundadores e Senadores Anacrônicos: Geração de "Pais Fundadores" dos EUA com diversidade de gênero e raça e "senadores do século 19" como mulheres negras e nativas americanas, apagando o contexto histórico (e racista) da época. O escândalo foi tão grande que forçou o CEO do Google, Sundar Pichai, a classificar os erros como "inaceitáveis". O Google suspendeu temporariamente a geração de imagens de pessoas e reconheceu publicamente que a tentativa de criar uma ampla gama de pessoas falhou em contextos históricos. O incidente destacou o problema da "supercorreção" no treinamento de IA, onde a tentativa de eliminar vieses resulta em imprecisões históricas gritantes.


## O Ecossistema da Desinformação Confiante

A essência do problema relatado permanece: essas IAs, apesar de incrivelmente capazes, são propensas a "alucinar" e apresentar ficção bem escrita com a confiança de um fato. A mudança de nome e o avanço dos modelos (Gemini Ultra, Gemini 1.5, Copilot) não resolveram a questão fundamental da veracidade. A corrida pública entre as big techs continua, agora focada na integração dos assistentes de IA (Gemini no Google Workspace, Copilot no Windows/Office) e na capacidade multimodal. No entanto, os "micos" mais recentes - seja a briga de namorados do Bing, o erro factual de estreia do Bard, ou a revisão histórica forçada do Gemini - apenas reforçam que a fronteira entre a informação útil e a "besteira eloquente" continua tênue, e o usuário segue sendo o testador beta involuntário neste show de horrores cômico.

