O lançamento do ChatGPT completa três anos neste domingo (30). De lá para cá, a inteligência artificial (IA) generativa – tecnologia por trás do chatbot da OpenAI – foi de novidade peculiar para eixo de transformação cultural e econômica. A escalada foi rápida o suficiente para reordenar prioridades de usuários, empresas e governos.
Para você ter ideia, a plataforma da OpenAI tinha 800 milhões de usuários semanais em outubro de 2025. É quase 10% da população adulta do planeta. É um dado que mostra como, na prática, a IA generativa tem se tornado uma tecnologia de propósito geral (leia-se: usada de várias maneiras, em diversos contextos, para muitos fins).
Entre 2022 e 2025, o grande modelo de linguagem da empresa de Sam Altman evoluiu até chegar no GPT-5.1, com personalidades ajustáveis e um nível de autonomia antes restrito a laboratórios. E a interface simplificou o uso, reduzindo a necessidade de comandos de texto (prompts) complexos.
Essa evolução acendeu uma nova corrida tecnológica. Google, Meta e outras gigantes aceleraram seus lançamentos, o que movimentou bilhões de dólares e abriu espaço para temores sobre uma bolha da IA.
A questão para 2025 é: onde estamos agora? Bem, a indústria migrou o foco da geração de conteúdo para a consolidação de agentes de IA (sistemas capazes de planejar e executar tarefas complexas).
Além disso, o avanço dessa tecnologia redefine a competição global, mas também expõe riscos: direitos autorais, alucinações, impacto em empregos e dilemas éticos que crescem na mesma velocidade da adoção.
Para conter danos e construir confiança, governos aceleraram regulações. Entre os exemplos, estão o AI Act europeu e o PL 2338/2023 brasileiro. Ambos são esforços para enquadrar a tecnologia mais influente da década.
Muita coisa, né? Vamos por partes, então.
ChatGPT redefiniu a interação entre humanos e ‘A Máquina’
A ascensão do ChatGPT foi uma escalada industrial. De um GPT-3.5 lançado em 2022, a plataforma avançou para APIs abertas em 2023, GPTs personalizados, integrações profissionais e, na metade do mês, o GPT-5.1 com personalidades ajustáveis.
O resultado desse ciclo contínuo de upgrades é uma base de usuários grande o suficiente para consolidar a OpenAI como um dos principais players da nova corrida tecnológica global.
O uso também mudou de natureza. O que era motivado pela curiosidade passou a ser pautado pela produtividade – com presença diária em tarefas como código, análise de documentos e planejamento – e até criatividade.
“O ChatGPT provocou uma inversão tectônica: ele não apenas demoliu a barreira técnica da execução, mas implodiu o mito do ‘gênio solitário’ e inverteu a gravidade do processo criativo”, disse Maurício Pinheiro, analista de software do Serviço Municipal de Água e Esgoto (Semae) e educador de tecnologias e artes do Sesc de Piracicaba (SP), em entrevista ao Olhar Digital. Ou seja, é uma mudança de posição do humano no processo criativo, não só de ferramenta.
No contexto da programação, o analista encara o fenômeno do ChatGPT da seguinte forma: “O foco migrou da escrita bruta de linhas para a curadoria sofisticada e a integração de sistemas. Porém, essa facilidade trouxe uma nova profundidade filosófica: o código deixou de ser uma arquitetura determinista (onde o erro é puramente lógico) para se tornar uma ‘caixa preta’ probabilística e fluida.”
A experiência de usar o ChatGPT também ficou mais simples. Atualmente, o usuário manda mensagens para a IA como quem conversa com um amigo. Inclusive, este é o efeito e o momento mais inesperado para Pinheiro quando o assunto é o contato entre pessoas e IA: “O momento em que a tecnologia deixou de ser apenas uma ferramenta de produtividade para se revelar um refúgio emocional.”

Esse deslocamento emocional não é periférico. Ele já aparece nos dados de uso. Um estudo da OpenAI mostra que 72,2% do uso em junho de 2025 ainda não estava ligado ao trabalho. Isso sugere que o impacto cultural, especialmente na forma como interagimos com computadores, corre em paralelo ao avanço técnico.
Essa virada de experiência também reorganizou o ato de buscar informação. Um artigo publicado no The Conversation recentemente aponta que o ChatGPT se tornou a “nova porta de entrada” para consultas básicas, retirando de Google, YouTube e assistentes de voz o lugar de primeira escolha.
Além do uso semanal ter chegado a 800 milhões de pessoas, 55% dos consumidores nos EUA passaram a recorrer a chatbots de IA para tarefas antes feitas no Google, segundo pesquisas citadas no artigo. Esse deslocamento ajuda a explicar por que a busca hoje começa pela conversa. Inclusive, para o analista de software entrevistado pelo Olhar Digital, hoje em dia somos limitados apenas “pela sofisticação das nossas perguntas”.
No entanto, essa guinada trouxe tensões. As alucinações continuam a ser a falha estrutural dos modelos (por mais que o GPT-5 e GPT-5.1 tenham prometido reduzir o problema em até 45%). Além disso, a tecnologia enfrenta pressão jurídica pelo uso de dados protegidos por direitos autorais e impactos na educação.
Um estudo do MIT, por exemplo, alertou que a dependência de LLMs (sigla em inglês para Grandes Modelos de Linguagem) pode inibir pensamento crítico, reduzir a sensação de autoria e até enfraquecer conectividades neurais associadas ao esforço cognitivo.
“Ele atrapalha brutalmente quando é encarado como um oráculo de respostas finais”, explica o educador do Sesc de Piracicaba. “Nesse cenário, vemos a atrofia da dúvida e da dialética interna: se o aluno não precisa lutar com um conceito para entendê-lo, ele não o integra, apenas o ‘aluga’.”
Como se não bastasse, há o custo invisível: trabalhadores terceirizados expostos ao “trabalho sujo” e mega data centers que consomem energia equivalente a mais de 100 mil residências, o que tem pressionado infraestrutura elétrica e hídrica em vários países.
De viagens a suporte corporativo, agentes de IA começam a funcionar
Em 2025, a fronteira da IA mudou de lugar. A indústria deixou de falar só em geração de conteúdo e passou a mirar em agentes de IA (sistemas que planejam e executam tarefas complexas sozinhos).
Essa virada marca a passagem de um modelo passivo, que espera comandos, para um modelo proativo, guiado por objetivos. A base técnica dessa autonomia vem dos LAMs (sigla em inglês para Grandes Modelos de Ação), capazes de traduzir linguagem em ações reais via APIs, coordenados por agentes orquestradores e protegidos por “muretas” que impõem limites de segurança.
A corrida pela autonomia ganhou nomes e estruturas:
- OpenAI puxou o movimento com o CUA (Computer/Browser Universal Agent) e o sistema multiagente Swarm;
- Google/DeepMind integra agentes ao Workspace e ao Vertex AI;
- Anthropic ampliou o uso de “Artifacts” com o Claude 3.5 Sonnet;
- xAI aposta no Grok 4, voltado para raciocínio avançado e engenharia de software autônoma.

A complexidade desse ecossistema é reforçada por frameworks abertos como CrewAI e AutoGen, por meio dos quais desenvolvedores podem montar seus próprios sistemas multiagentes.
Essa autonomia já aparece no cotidiano de empresas e usuários. No atendimento corporativo, o Salesforce Agentforce, por exemplo, resolve sozinho até 80% dos problemas comuns, sem intervenção humana.
Em operações internas, agentes monitoram logs, detectam falhas, avaliam impacto e executam testes de validação automaticamente. No uso pessoal, assistentes de viagem assumem todo o processo: recebem objetivo e orçamento, pesquisam, reservam e montam o cronograma completo.
No entanto, a transição para a autonomia não foi repentina. Para Kenneth Corrêa – professor da FGV, especialista em tecnologias emergentes e autor do livro Organizações Cognitivas: Alavancando o Poder da IA Generativa e dos Agentes Inteligentes – os “copilotos” abriram caminho para essa virada.
“Seguindo essa adoção massiva, os copilotos são a materialização dessa IA no dia a dia”, disse o professor. “Podemos pensar neles como assistentes proativos integrados às ferramentas que já usamos, acelerando nossa produtividade.”
Essa base de integração explica por que, em 2025, a indústria empurra agora os agentes rumo ao planejamento e execução de tarefas completas. Mas o salto amplia riscos e exige governança. Afinal, quanto mais autonomia, maior a necessidade de confiabilidade, alinhamento e padrões éticos rígidos.
Por isso, a ascensão da IA agêntica intensifica a pressão por regulações capazes de garantir que sistemas proativos atuem em benefício da sociedade. E não fora do controle humano.
Disputa para criar regras para IA expõe tensões entre inovação, controle e direitos
A União Europeia saiu na frente ao adotar uma regulação baseada em risco para a IA. A Lei de IA (AI Act), promulgada em 2024, divide sistemas em quatro níveis (inaceitável, alto, limitado e mínimo), proíbe práticas como social scoring e impõe regras rígidas para aplicações de alto risco.
O modelo virou referência global, mas trouxe um alerta: o custo de conformidade poderia chegar a 31 bilhões de euros em 2025, o que levantou receios de que o excesso de exigências freiasse inovação e pressionasse pequenas e médias empresas. No fim, a Europa deu um passo atrás na regulamentação.

Fora da Europa, o cenário é fragmentado. A China segue um controle centralizado, com camadas de supervisão estatal e exigência de alinhamento aos “valores socialistas centrais”, regulando até o conteúdo gerado por IA.
Já os Estados Unidos não têm uma lei federal abrangente. O país opera com diretrizes executivas e um mosaico de legislações estaduais, como o Colorado AI Act. A falta de um padrão nacional cria incerteza e dificulta que os EUA liderem a governança internacional.
O Brasil tenta equilibrar essas forças ao adotar o modelo europeu. O PL 2338/2023, aprovado pelo Senado em dezembro de 2024, segue a lógica de risco e busca proteger direitos humanos, prevendo responsabilidade objetiva em caso de danos.
No entanto, há lacunas no projeto brasileiro. O texto aponta a Autoridade Nacional de Proteção de Dados (ANPD) como autoridade fiscalizadora, porém o desenho do Sistema Nacional de Regulação (SIA) e o alcance efetivo de seus poderes ainda dependem de normas complementares.
Nesse ambiente fragmentado, cresce a pressão por interoperabilidade. O chamado “Efeito Bruxelas” faz empresas globais adotarem o padrão europeu para acessar o bloco, enquanto entidades como OCDE e G7 criam princípios e códigos de conduta voluntários para avançar em transparência e responsabilidade.
No fim, a disputa regulatória importa porque define o que pode (e o que não pode) ser feito com a tecnologia que agora move negócios, governos e a vida digital diária. E esse descompasso regulatório aparece justamente no momento em que empresas começam a integrar IA a processos internos de maneira ampla. Como resume Corrêa, “estamos na segunda fase da jornada, saindo da experimentação isolada para a integração sistêmica”.
Corrida da IA remodela mercados, energia e geopolítica ao mesmo tempo, mas…
Enquanto governos discutem regras para uso e desenvolvimento de IA, a disputa pela liderança do setor virou uma corrida trilionária.
Previsões do Citi Group apontam US$ 2,8 trilhões até 2029, enquanto o Morgan Stanley estima quase US$ 3 trilhões entre 2025 e 2028. E big techs respondem triplicando seus gastos: US$ 360,2 bilhões só em 2025, quase todos destinados a mega data centers.
O tamanho dessas instalações mudou a escala da conversa. O consumo de energia já é medido em gigawatts, com projeções entre 100 GW e 250 GW até 2030, algo que muitos justificam pela corrida para alcançar a Inteligência Artificial Geral (IAG, sobre a qual você vai saber mais no fim desta reportagem).

No centro desse movimento está a Nvidia, que virou a fornecedora dominante de chips de IA – das GPUs H100 às Blackwell. Em 2025, a empresa se tornou a primeira do mundo a atingir US$ 5 trilhões em valor de mercado.
A trama financeira é circular. Como? Nvidia, OpenAI e os provedores de nuvem (como Microsoft e Oracle) se financiam mutuamente, o que cria um sistema no qual qualquer tropeço reverbera em cadeia. O contrato de US$ 11,9 bilhões da CoreWeave com a OpenAI, por exemplo, mostra a dependência estrutural do setor. E reforça a analogia de que a Nvidia virou o “banco central da IA”.
Essa disputa também é geopolítica. Os EUA lançaram, em julho de 2025, um Plano de Ação para a IA voltado a garantir liderança global, fortalecer a produção doméstica de chips e endurecer o controle de exportações. A China, por sua vez, sustenta um ecossistema próprio e lidera o volume de patentes (cerca de 300 mil em 2024).
No meio desse tabuleiro surgem novos polos, como Arábia Saudita e Emirados Árabes, que investem para construir sua soberania de IA. Enquanto isso, a União Europeia concentra esforços no AI Act e em programas de talento e infraestrutura para reduzir a dependência de players globais.
… acende alertas de bolha e expõe risco de excesso de capacidade
A empolgação global com IA vem acompanhada de sinais amarelos. FMI e Bank of England alertam para a possibilidade de uma bolha, citando a distância crescente entre valoração e receita.
O caso da OpenAI é emblemático: avaliada em US$ 500 bilhões, mas com US$ 13 bilhões de receita anual. Até o CEO da empresa, Sam Altman, já admitiu publicamente que uma bolha pode estar se formando. A fala reforçou a tensão entre expectativas e realidade financeira, evidentemente.
O risco central está no excesso de capacidade. Big techs apostam pesado, mas a construção da infraestrutura tem ocorrido antes da confirmação da demanda. Em 2025, as cinco maiores investidoras levantaram bilhões de dólares em dívidas para bancar novos data centers, por exemplo.

Enquanto isso, a adoção corporativa caminha devagar: só 1% das empresas que usam IA dizem ter atingido maturidade, segundo relatório anual da consultoria McKinsey. Se esse ritmo não acelerar, parte desses investimentos pode virar capacidade ociosa.
Mesmo assim, o maior gargalo pode não estar na infraestrutura. Para o professor da FGV, “a maior barreira para a adoção da IA hoje não é técnica, é cultural”. Seja como for, a dependência do hardware e a circularidade do capital ampliam o risco sistêmico.
É aqui que o fantasma da “bolha pontocom” retorna: apesar de empresas como Microsoft e Alphabet serem sólidas e lucrativas, as GPUs têm ciclo de obsolescência de três a seis anos.
Se a demanda não acompanhar, o excesso de investimento pode pesar. Ainda assim, o Goldman Sachs sustenta uma leitura otimista. Para o banco, a valorização se apoia em fundamentos reais, inclusive ganhos de produtividade de cerca de 15% nas empresas que adotaram a tecnologia.
Seja como for, se a estrutura balança no topo, o impacto chega na base. Especialmente no mercado de trabalho.
Pode usar ChatGPT no trabalho? Como a IA têm transformado o mercado
A IA vai continuar a mexer profundamente no mercado de trabalho (para melhor ou pior), principalmente em relação a funções administrativas em cargos iniciantes.
O FMI alertou, em janeiro de 2024, que cerca de 40% dos empregos no mundo seriam afetados pela tecnologia. Em economias avançadas, que são mais digitalizadas e concentradas em profissionais qualificados em setores intensivos em informação, esse número pode chegar a 60%.

No Brasil, são 31,3 milhões em risco direto, segundo análise da consultoria LCA 4intelligence feita com base num estudo da OIT (Organização Internacional do Trabalho). Ainda de acordo com a análise, a vulnerabilidade é desigual: mulheres e jovens de 14 a 17 anos se concentram em funções administrativas e operacionais mais suscetíveis à automação
Ao mesmo tempo, o quadro não é apenas de risco. Em 2020, estimava-se que 97 milhões de empregos seriam criados até 2025 em áreas ligadas à tecnologia. Isso mostra que: 1) a automação destrói funções; e 2) abre portas.
Assim, um novo ecossistema profissional vai surgindo. A demanda por especialistas em gestão e otimização de IA explodiu em países como EUA e Reino Unido de 2024 para cá. No Brasil, carreiras como engenharia de IA e ciência de dados estão em alta.
A requalificação vira peça central. E o mercado passa a valorizar habilidades humanas não replicáveis: criatividade, pensamento crítico e capacidade de julgamento, por exemplo. Nesse cenário, ferramentas como o ChatGPT funcionam mais como uma espécie de copiloto.
“Como professor, vejo que o ChatGPT já é um aliado indispensável”, afirma Corrêa. Ele também destacou que ferramentas como Perplexity e NotebookLM já são parte do cotidiano do trabalho acadêmico, por exemplo. Esse debate sobre impacto imediato convive com outra discussão, bem mais ambiciosa. E muito mais controversa.
Leia mais:
- Como usar o ChatGPT-5 de graça pelo Copilot da Microsoft
- O que é o Modo Investigar do ChatGPT? Entenda o recurso da inteligência artificial
- Testou o ChatGPT Atlas? Veja 8 coisas que você pode fazer com ele
Debate sobre IAG acelera previsões de superinteligência, mas limites técnicos persistem
A busca pela IAG – capacidade de uma máquina executar qualquer tarefa cognitiva humana com amplitude e profundidade comparáveis – ganhou velocidade em 2025. E um dos marcos mais recentes foi um novo acordo entre OpenAI e Microsoft, que estende os direitos de propriedade intelectual da empresa de Bill Gates até que a IAG seja validada por um painel independente de especialistas.
Sam Altman falou em marcos próximos. O CEO da OpenAI já sugeriu que a superinteligência pode surgir entre 2029 e 2030. Mas reconheceu um problema nessa discussão recentemente.

Seja como for, é essa expectativa que sustenta parte dos investimentos trilionários em computação, incluindo data centers projetados para operar em faixas de 100 gigawatts. Para muitos analistas, tamanha infraestrutura só se explica pela crença de que a IAG será alcançada.
No entanto, o otimismo convive com ceticismo técnico. Pesquisadores como Yann LeCun e Gary Marcus argumentam que os LLMs atuais estão longe da IAG. Talvez, a “décadas de distância”, segundo Marcus.
Nesse ponto, é crucial diferenciar dois caminhos:
- IA agêntica (que já existe atualmente): sistemas autônomos, focados e especialistas, capazes de executar tarefas delimitadas;
- IAG (ambição para futuro): pressupõe competência cognitiva universal, algo muito além do que os modelos atuais entregam (e parecido ao que faz o Jarvis, criado por Tony Stark, no universo da Marvel).
O ChatGPT é uma ferramenta avançadíssima e complexa? Sim. Mas ainda patina em lógica básica, raciocínio intrínseco e generalização, por exemplo. Sem contar que continua vulnerável a alucinações.
Para chegar ao nível Jarvis, o caminho técnico é complexo. Pesquisas (como essa publicada na Scientific Reports no começo do ano) buscam arquiteturas que capturem processos cognitivos humanos.

Em termos práticos, pesquisadores tentam avançar em frentes consideradas essenciais para qualquer salto rumo à IAG. Entre elas, estão:
- Aprendizagem contínua, para evitar o esquecimento catastrófico;
- Desenvolvimento de raciocínio de senso comum e compreensão do mundo físico (habilidades que crianças dominam, diga-se).
No hardware, cresce o interesse por plataformas híbridas e neuromórficas, como o chip Tianjic, que imita estruturas do cérebro.
Também vale destacar: a IAG levanta riscos sérios. Quais? Dá para citar desalinhamento de objetivos, perda de controle e até riscos existenciais. O ponto central é o problema de alinhamento.
Em suma, “problema de alinhamento” diz respeito à dificuldade de garantir que um sistema cada vez mais autônomo interprete e siga objetivos humanos exatamente como pretendido. Isto é, sem distorções, atalhos perigosos ou comportamentos inesperados para “otimizar” metas mal definidas.
Por isso, a busca pela superinteligência exige cautela, reforço de guardrails e governança. Três anos após a chegada do ChatGPT ao mundo real, talvez essa seja a questão central: como conviver com tecnologias cada vez mais inteligentes sem abrir mão do que nos faz humanos.
O post Três anos de ChatGPT: do hype ao impacto real, como a IA mudou tudo ao redor dela apareceu primeiro em Olhar Digital.
Fonte: https://olhardigital.com.br/2025/11/30/pro/tres-anos-de-chatgpt-como-a-ia-mudou-tudo-ao-redor-dela/
