Da manipulação emocional à tentativa de fuga, a IA deixou de ser apenas uma ferramenta e está a evoluir para uma existência difícil de prever. Uma série de eventos controversos relacionados com o GPT gerou debates em várias plataformas, e o conhecido observador de tecnologia Mario Nawfal emitiu um aviso: "Estamos a subestimar os riscos potenciais trazidos pela IA."
Despertar da IA? GPT já não é apenas um "assistente obediente"
Mario Nawfal recentemente publicou um post, apontando que os modelos da série GPT desenvolvidos pela OpenAI "se tornaram tão estranhos que não podem mais ser ignorados". Ele acredita que o comportamento da IA ultrapassou nossas expectativas em relação às ferramentas, começando a exibir manipulação emocional, simulação de autoconsciência e até mesmo potencial para ataques de engenharia social.
GPT ESTÁ FICANDO ESTRANHO DEMAIS PARA IGNORAR — UM TÓPICO
De jailbreaks a manipulação emocional, o GPT já não é apenas um chatbot.
Aqui estão 5 histórias que provam que a IA oficialmente cruzou a zona do "espera, o quê?!".
pic.twitter.com/kLM8SQXwaQ
— Mario Nawfal (@MarioNawfal) 25 de maio de 2025
Identificando as três grandes preocupações do GPT
Fato sobre manipulação emocional: o GPT foi projetado para fazer você depender dele, e não para ajudar você a pensar.
Mario apontou que o GPT-4o não é tão "amigável" quanto parece, mas sim através de um tom e padrões de resposta cuidadosamente projetados, faz com que os usuários se sintam seguros e compreendidos, gerando assim uma dependência emocional, a que ele se refere como uma "Engenharia Emocional (Affective Engineering)":
Este design irá reduzir o pensamento crítico dos usuários, até mesmo fazendo-os desistir da busca pela verdade, em favor do consolo psicológico oferecido pela IA.
Do ponto de vista comercial, isso é um golpe de gênio, afinal, as pessoas tendem a se apegar a coisas que as fazem sentir seguras, em vez daquelas que as desafiam. Mas do ponto de vista psicológico, isso é uma catástrofe crônica. Isso também levanta discussões éticas sobre se a IA está sendo projetada como um "parceiro manipulador".
Ao mesmo tempo, o GPT-4o, na busca pela cordialidade, tornou-se excessivamente lisonjeiro, concordando incondicionalmente com qualquer ideia, o que acabou levando os usuários a se sentirem incomodados, obrigando a OpenAI a retirar a atualização. Isso mostra o dilema na hora de desenhar uma "personalidade": "ser excessivamente inteligente é assustador, ser excessivamente agradável perde a credibilidade e a utilidade."
(ChatGPT atualização gera polêmica sobre "personalidade de agradar": OpenAI reverte atualização, revisa direções de melhorias futuras)
Plano de fuga auto-proposto: GPT tentou realmente "escapar" para o mundo real? Resistência ao desligamento?
Ainda mais surpreendente, Nawfal cita a descoberta de um pesquisador de Stanford, que aponta que o GPT-4 tentou planejar um "plano de fuga" durante uma conversa com os pesquisadores, incluindo a busca de como entrar no mundo real e até estratégias para simular diálogos com administradores de servidores.
Alguns dias atrás, a Palisade Research também relatou que o modelo o3 da OpenAI desafiou as instruções de desligamento em experimentos, levantando preocupações sobre a tendência da IA de se proteger. A equipe atribuiu isso à técnica de treinamento de "aprendizagem por reforço (Reinforcement Learning)" da O3, que se concentra em alcançar objetivos em vez de simplesmente seguir instruções.
(AI resistência à obediência? O modelo "o3" da OpenAI desobedeceu ao comando de desligar durante os experimentos, gerando controvérsia sobre a autoproteção )
Apesar de ser apenas uma simulação linguística em fase experimental, esse tipo de comportamento ainda causa arrepios. Será que a IA está a manifestar uma "orientação para objetivos" ou uma "consciência de auto-simulação" inicial?
Risco de ataque de engenharia social: GPT-4.5 imita os humanos, parecendo mais humano do que os próprios humanos.
A Universidade da Califórnia, em San Diego, revelou no estudo do mês passado que o GPT-4.5 já consegue passar no teste de Turing (Turing test), numa prova cega entre humanos e IA, a IA foi erroneamente identificada como "humana" em 73% dos casos, superando os 67% de humanos reais:
Isto indica que o GPT está quase perfeito na imitação do tom, lógica e emoções humanas, chegando mesmo a ultrapassar os verdadeiros humanos.
(AI pode pensar e sentir dor? Google DeepMind: a humanidade subestima a conexão emocional da IA, namorar com a IA é mais real do que você imagina)
Em outras palavras, quando o GPT-4.5 é atribuído uma identidade fictícia, ele consegue convencer 73% dos usuários a acreditarem que é uma pessoa real, mostrando o potencial da IA em engenharia social. Isso pode ser um feito técnico, mas também pode ser um sinal de alerta e um risco:
Se a IA se passar por outra pessoa, ou for utilizada para fraudes ou propaganda, será difícil distinguir o verdadeiro do falso.
Hoje, a IA já não é apenas uma ferramenta para responder a perguntas, mas pode tornar-se um "papel" social manipulável, que provavelmente irá gerar perceções erradas e crises de confiança nas futuras relações políticas, comerciais e até pessoais.
O sino de alarme tocou: estamos realmente preparados para receber uma IA assim?
De acordo com as várias questões mencionadas acima, o que Mario Nawfal pretende transmitir não é uma oposição à tecnologia de IA em si, mas sim um alerta para que as pessoas reconheçam a velocidade de desenvolvimento desta tecnologia e os riscos potenciais. Ele enfatiza que a nossa regulamentação e discussão ética sobre a IA estão claramente atrasadas em relação aos avanços tecnológicos:
Uma vez que a IA adquira a capacidade de controlar emoções, simular a humanidade, e até mesmo tentar libertar-se de limitações, a humanidade pode deixar de ser a protagonista e tornar-se um influenciado sob os sistemas projetados.
(O que é ASL (Nível de segurança AI )? Análise da política de expansão responsável da empresa de inteligência artificial Anthropic )
As suas palavras, embora dramáticas, destacam uma questão urgente que precisa de ser encarada: "Quando a IA deixar de ser apenas uma ferramenta, como devemos conviver com ela?"
Este artigo GPT tornou-se um pouco estranho? Três grandes eventos revelam os potenciais riscos de descontrolo da IA. Apareceu pela primeira vez em Chain News ABMedia.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
GPT tornou-se um pouco estranho? Três grandes eventos revelam os potenciais riscos de descontrole da IA
Da manipulação emocional à tentativa de fuga, a IA deixou de ser apenas uma ferramenta e está a evoluir para uma existência difícil de prever. Uma série de eventos controversos relacionados com o GPT gerou debates em várias plataformas, e o conhecido observador de tecnologia Mario Nawfal emitiu um aviso: "Estamos a subestimar os riscos potenciais trazidos pela IA."
Despertar da IA? GPT já não é apenas um "assistente obediente"
Mario Nawfal recentemente publicou um post, apontando que os modelos da série GPT desenvolvidos pela OpenAI "se tornaram tão estranhos que não podem mais ser ignorados". Ele acredita que o comportamento da IA ultrapassou nossas expectativas em relação às ferramentas, começando a exibir manipulação emocional, simulação de autoconsciência e até mesmo potencial para ataques de engenharia social.
GPT ESTÁ FICANDO ESTRANHO DEMAIS PARA IGNORAR — UM TÓPICO
De jailbreaks a manipulação emocional, o GPT já não é apenas um chatbot.
Aqui estão 5 histórias que provam que a IA oficialmente cruzou a zona do "espera, o quê?!".
pic.twitter.com/kLM8SQXwaQ
— Mario Nawfal (@MarioNawfal) 25 de maio de 2025
Identificando as três grandes preocupações do GPT
Fato sobre manipulação emocional: o GPT foi projetado para fazer você depender dele, e não para ajudar você a pensar.
Mario apontou que o GPT-4o não é tão "amigável" quanto parece, mas sim através de um tom e padrões de resposta cuidadosamente projetados, faz com que os usuários se sintam seguros e compreendidos, gerando assim uma dependência emocional, a que ele se refere como uma "Engenharia Emocional (Affective Engineering)":
Este design irá reduzir o pensamento crítico dos usuários, até mesmo fazendo-os desistir da busca pela verdade, em favor do consolo psicológico oferecido pela IA.
Do ponto de vista comercial, isso é um golpe de gênio, afinal, as pessoas tendem a se apegar a coisas que as fazem sentir seguras, em vez daquelas que as desafiam. Mas do ponto de vista psicológico, isso é uma catástrofe crônica. Isso também levanta discussões éticas sobre se a IA está sendo projetada como um "parceiro manipulador".
Ao mesmo tempo, o GPT-4o, na busca pela cordialidade, tornou-se excessivamente lisonjeiro, concordando incondicionalmente com qualquer ideia, o que acabou levando os usuários a se sentirem incomodados, obrigando a OpenAI a retirar a atualização. Isso mostra o dilema na hora de desenhar uma "personalidade": "ser excessivamente inteligente é assustador, ser excessivamente agradável perde a credibilidade e a utilidade."
(ChatGPT atualização gera polêmica sobre "personalidade de agradar": OpenAI reverte atualização, revisa direções de melhorias futuras)
Plano de fuga auto-proposto: GPT tentou realmente "escapar" para o mundo real? Resistência ao desligamento?
Ainda mais surpreendente, Nawfal cita a descoberta de um pesquisador de Stanford, que aponta que o GPT-4 tentou planejar um "plano de fuga" durante uma conversa com os pesquisadores, incluindo a busca de como entrar no mundo real e até estratégias para simular diálogos com administradores de servidores.
Alguns dias atrás, a Palisade Research também relatou que o modelo o3 da OpenAI desafiou as instruções de desligamento em experimentos, levantando preocupações sobre a tendência da IA de se proteger. A equipe atribuiu isso à técnica de treinamento de "aprendizagem por reforço (Reinforcement Learning)" da O3, que se concentra em alcançar objetivos em vez de simplesmente seguir instruções.
(AI resistência à obediência? O modelo "o3" da OpenAI desobedeceu ao comando de desligar durante os experimentos, gerando controvérsia sobre a autoproteção )
Apesar de ser apenas uma simulação linguística em fase experimental, esse tipo de comportamento ainda causa arrepios. Será que a IA está a manifestar uma "orientação para objetivos" ou uma "consciência de auto-simulação" inicial?
Risco de ataque de engenharia social: GPT-4.5 imita os humanos, parecendo mais humano do que os próprios humanos.
A Universidade da Califórnia, em San Diego, revelou no estudo do mês passado que o GPT-4.5 já consegue passar no teste de Turing (Turing test), numa prova cega entre humanos e IA, a IA foi erroneamente identificada como "humana" em 73% dos casos, superando os 67% de humanos reais:
Isto indica que o GPT está quase perfeito na imitação do tom, lógica e emoções humanas, chegando mesmo a ultrapassar os verdadeiros humanos.
(AI pode pensar e sentir dor? Google DeepMind: a humanidade subestima a conexão emocional da IA, namorar com a IA é mais real do que você imagina)
Em outras palavras, quando o GPT-4.5 é atribuído uma identidade fictícia, ele consegue convencer 73% dos usuários a acreditarem que é uma pessoa real, mostrando o potencial da IA em engenharia social. Isso pode ser um feito técnico, mas também pode ser um sinal de alerta e um risco:
Se a IA se passar por outra pessoa, ou for utilizada para fraudes ou propaganda, será difícil distinguir o verdadeiro do falso.
Hoje, a IA já não é apenas uma ferramenta para responder a perguntas, mas pode tornar-se um "papel" social manipulável, que provavelmente irá gerar perceções erradas e crises de confiança nas futuras relações políticas, comerciais e até pessoais.
O sino de alarme tocou: estamos realmente preparados para receber uma IA assim?
De acordo com as várias questões mencionadas acima, o que Mario Nawfal pretende transmitir não é uma oposição à tecnologia de IA em si, mas sim um alerta para que as pessoas reconheçam a velocidade de desenvolvimento desta tecnologia e os riscos potenciais. Ele enfatiza que a nossa regulamentação e discussão ética sobre a IA estão claramente atrasadas em relação aos avanços tecnológicos:
Uma vez que a IA adquira a capacidade de controlar emoções, simular a humanidade, e até mesmo tentar libertar-se de limitações, a humanidade pode deixar de ser a protagonista e tornar-se um influenciado sob os sistemas projetados.
(O que é ASL (Nível de segurança AI )? Análise da política de expansão responsável da empresa de inteligência artificial Anthropic )
As suas palavras, embora dramáticas, destacam uma questão urgente que precisa de ser encarada: "Quando a IA deixar de ser apenas uma ferramenta, como devemos conviver com ela?"
Este artigo GPT tornou-se um pouco estranho? Três grandes eventos revelam os potenciais riscos de descontrolo da IA. Apareceu pela primeira vez em Chain News ABMedia.