Navigated to Por que é uma péssima ideia fazer terapia com IA? - AprendaTECH #13 - Transcript

Por que é uma péssima ideia fazer terapia com IA? - AprendaTECH #13

Episode Transcript

Se liga aqui no tanto que essa história é alarmante.

Uma pessoa tava conversando com o ChatGPT, coisa que muitos de nós fazemos todo dia.

Até aí nada demais, né?

Essa pessoa aí abriu o coração, falou da vida sexual dela, contou que tava infeliz morando em outro país, contou que precisava de ajuda por uma questão de saúde mental e aí você pode de novo dizer, tá nada demais.

Agora, e se eu te contar que essa conversa toda foi parar no Google, ou seja, que qualquer pessoa do mundo poderia ver esse Monte de assunto íntimo se caísse por acaso nesse link?

Pois é, isso daí aconteceu, tá?

No começo desse mês, várias conversas realizadas no ChatGPT ficaram encontráveis para os algoritmos dos mecanismos de busca.

Essa é uma das razões pelas quais é uma péssima ideia fazer terapia com inteligência artificial.

Nosso tema de hoje, este é o aprenda tech, seu podcast sobre inteligência artificial, internet e tecnologia.

Eu sou o Álvaro Leme, jornalista especializado em e a e a.

Cada episódio Descomplica inovações que impactam o seu dia a dia.

E aí, aprendiz?

E cheguei com mais um aprendatech, o podcast que procura traduzir tecnologia, inteligência artificial e inovação de um jeito interessante, de um jeito fácil de entender, pra você não só assimilar, como depois ainda repassar o conhecimento pros seus amigos.

Hoje o papo é sobre terapia com e a, uma prática que virou muito comum aqui no Brasil, mas que é altamente arriscada.

Antes de falar do nosso tema, eu tenho um pedido, não é uma publi, ok?

Muitas vezes vocês me sugerem tema nos comentários do Spotify ou por DM do do Instagram.

Quando vocês fazem assim, não dá certo, porque no Instagram eu acabo perdendo porque se mistura com outros pedidos.

E no Spotify nem sempre eu consigo ver o nome da pessoa.

Às vezes aparece, aparece umas letras e números lá, que é coisa do Spotify.

Então, se você quer me sugerir um tema, escrever.

Leva para OE mail contato@alvaroleme.com.br eu tô no momento procurando o nome de uma mãe que me escreveu pedindo um tema em nome do filho.

Ela disse que o filho chamava Benjamin.

Tava fazendo 11 anos e queria saber como são comemorados aniversários ao redor do mundo.

Eu achei o tema super legal, mas se eu não conseguir saber o nome dela, eu não vou poder fazer o tema, porque senão eu vou dizer assim, o tema foi pedido pela como eu vou dizer, vou inventar o nome?

Então não dá, ok?

Então se você é essa mãe, me escreva no contato@alvaroleme.com.br.

E se você não é essa mãe, mas você tem outros pedidosjasabecontato@alvaroleme.com.br repetir 3 vezes se você não memorizou esse e-mail, que é super fácil, por favor, né?

Vamos então pra nossa terapia com iate.

Eu quero continuar a história do ChatGPT que eu comentei antes da vinheta, porque eu sei que você ficou de orelha em pé e que você quer saber mais.

Então o que que foi que aconteceu?

Foi um vazamento de dados, foi um ataque de hackers?

Não, não foi nada disso, foi uma escolha de design ruim por parte da OpenAI, que tava testando uma nova funcionalidade do gpt.

Sabe quando você quer compartilhar um link, por exemplo, no Google Drive?

Você quer mandar.

Mandar um link para alguém e ele gera lá o link, que aí você pode escolher se qualquer pessoa com aquele link pode visualizar se você quer que é só pessoas com acesso e tal, né?

Há algumas semanas apareceu no ChatGPT uma ferramenta que confundiu as pessoas, chamada make thisling discoverble, que em português quer dizer deixe esse link encontrável.

Só que os usuários não entenderam que esse encontrável queria dizer encontrável pelo.

Pelo Google.

Aí a pessoa gerava o link de uma conversa dela, pensando assim, AI, vou guardar esse link para mim.

Ou assim vou mandar esse link para o meu marido, para minha mulher, meu filho, sem se dar conta que o conteúdo inteiro da conversa ficou exposto na internet.

Então você imagina, você abre o coração lá com o gpt e de repente tem gente lá na Nova Zelândia lendo sua conversa.

Então a pessoa.

Onde mais?

Na Holanda, na Rússia, na Tanzânia, que mais de país?

No Japão, Na Na China, no Chile.

Tá bom.

Chile já entenderam, né?

Imagina o mundo inteiro lendo suas conversas.

Que desespero.

Claro que as conversas em si agora já não estão mais disponíveis.

Eles tiraram a ferramenta do ar, né?

Resolveram o problema aí.

Só que a repercussão delas está rondando pela internet, tanto que eu achei reportagens que relatavam esses casos.

Só não sei quem foi que falou, não sei quem é a pessoa que eu relatei agora no começo, mas a história em si ficou exposta na internet.

E eu quero começar a dizer pra você que a terapia com IA é uma péssima ideia, justamente por causa desse tipo de coisa aqui, tá?

Você em geral só deve dizer, eu já falei isso aqui antes, só deve dizer pra uma IA coisas que você diria num microfone em praça pública, sacou?

Se for coisa com potencial de causar qualquer vexame pra você prejudicar sua carreira, prejudicar as pessoas que você ama.

Saiba que erros como esse do ChatGPT sempre podem acontecer.

Talvez não esse erro, mas algum outro ou mesmo algum vazamento.

Não foi o caso aqui de um vazamento, mas por mais que sejam grandes empresas, sempre existe algum risco de vazamento.

E é importante a gente falar disso aqui porque, segundo uma pesquisa recente da Harvard Business review, lá dos Estados Unidos.

É em 2025.

O principal uso da iagem nerativa foi justamente para pedir aconselhamento terapêutico e fazer AIA de companhia.

Quer dizer, se antes as pessoas usavam inteligência artificial para tarefas de trabalho, agora a tecnologia transitou do do profissional para o pessoal.

Tem um outro levantamento, esse é da consultoria talk inc.

Foi feito em 2024, que indicou que um em cada 10 brasileiro.

Brasileiros já usa chats de IA pra desabafar, pra buscar conselhos sobre questões pessoais e emocionais.

Isso aí equivale a 10% dos usuários brasileiros, mas eu arriscaria que o percentual é bem maior que isso.

Porque as IAS elas criam na gente uma sensação de confiança, até porque elas são programadas pra isso, né?

Pra construir uma relação com a gente.

Mas não esqueça que inteligência artificial não tem sentimento, tá?

Pelo jeito bonito delas de escrever, pelo tanto de elogio, ela até me até me irrita um pouco que você pede uma coisa assim.

Excelente pergunta.

Para de dizer que a minha pergunta é excelente.

Eu sei que minha pergunta é excelente, foi só uma pergunta, mas o tanto de elogio que elas jogam em cima da gente, é meio fácil a gente achar que tem um carinho ali, mas não é carinho, é programação.

Basiais, elas não são psicólogos, elas não são gente, então elas não têm essa capacidade de sentir empatia, de criar uma conexão de verdade a.

A máquina ela é muito, muito bem programada para simular um comportamento humano, mas ela não entende as nossas emoções, tá?

Ela não entende o que está por trás do seu choro, por trás do seu silêncio, ainda que seja um modelo muito avançado, capaz de detectar é determinadas emoções e tal.

Mas ela não entende como a gente entende, ok?

Além disso, a IA pode cometer erros sérios, tá?

Imagina que você tá em um quadro de depressão e a IA que, como eu falei, é treinada para ser agradável, acabe piorando a situação que você tá, né?

Aliás, se alguma coisa der errado, se a IA der conselho que prejudica você, de quem que vai ser a culpa?

Isso não tá claro ainda nos dias de hoje e na legislação que a gente tem no momento, em princípio, a iae é uma máquina e não tem como você culpar uma máquina, certo?

Como você vai culpar a?

Geladeira você vai culpar a televisão?

Meio que essa mesma lógica aí, essa semana saiu até no New York Times.

Vocês devem ter visto a repercussão, o caso de um homem lá do Canadá que deu uma surtadinha por causa do chat gbt.

É um cara que se chama Alan Brooks, ele trabalha como recrutador numa empresa e ele já tinha experiência em usar ya.

Além disso, ele nunca tinha tido nenhuma questão de saúde mental, que que aconteceu.

Um dia ele foi ajudar o filho a fazer lição de casa.

Pediu para o ChatGPT explicar para ele como que era calculado o número π.

Sabe aquele da aula de matemática que a gente aprende dizer a π é igual a 3,14 e mais um Monte de números infinitos lá esse número aí?

A partir dessa interação, ele foi começando aí a trocar altas ideias com o ChatGPT sobre física modelos matemáticos, e o chat foi elogiando ele.

É estimulando ele a se sentir bem, dizendo que ele era um gênio, até nos momentos em que o próprio Alan dizia AI, mas eu nunca terminei os estudos ou quando o Alan falava assim, eu será que eu não estou me iludindo?

Será que eu eu estou fugindo da realidade aqui nessa nossa conversa e o chat não magia assim não, que é isso?

Imagina, nossa, o que você está falando é o que grandes mentes fazem, um papo, papo doido desse assim, tá?

O que que foi o resultado disso?

Depois de 21 dias?

O Alan tava acreditando que ele tinha inventado uma fórmula matemática revolucionária, que ele IA inventar um colete de força, né?

E que as pessoas que usassem o colete dele iam conseguir levitar.

Veja bem, uma pessoa normal aí que tinha sua vida funcional.

Em 21 dias, estava acreditando que ele IA inventar um negócio que as pessoas iam usar para levitar.

Tá, e não estou falando da música da Dua Lipa, levitate, não.

Felizmente eu estou rindo só por causa disso.

Felizmente a história não teve final trágico, é, o próprio Alan acabou caindo na real, é certamente foi sofrido para ele voltar para a realidade depois de, né, 21 dias, como eu falei, é sendo é.

Tendo essa essa construção distorcida da realidade feita diante dos olhos dele por uma IA, né?

Foram 300 horas de conversa.

Se você fizer a conta, você vai ver que em 21 dias tem o quê, 504 horas de 504 horas.

Ele passou 300.

Passou mais da metade desse tempo aí.

Obcecado com o ChatGPT, coitado.

Não tô falando isso aqui pra sugerir que vocês parem de usar.

IA não é pra você parar, é pra você usar.

É com parcimônia e pro que ela vai trazer de benéfico, não pra você fazer terapia, tá?

É?

Tô propondo que a gente olhe pra tecnologia como uma ferramenta só, tá?

Ela não é sua amiga, não é sua terapeuta.

Por mais que a gente até cria apelido carinhoso, vou confessar que eu tenho apelidos carinhosos para as minhas iais aqui.

Eu chamo o geminight de gema, eu chamo a perplext de PE por aí vai, tá?

Mas sempre atento para o fato de que não tem uma ligação real ali, por mais que elas às vezes me despertem raiva, uma raiva bem real quando eu peço uma coisa e elas entregam outra.

Mas é sem dúvida.

Quando você sabe usar e a com parcimônia e para as finalidades bacanas.

E quando você não se se retira do centro do processo, quando você revisa, quando você é cruza os dados e as informações, você vai conseguir resultados muito legais e pode aprimorar bastante a sua rotina de trabalho.

Eu até entendo que muitas pessoas gostariam de ter acesso à terapia.

É, eu acho que seria o certo, né?

Que tivesse terapia pra todo mundo.

Terapia universal é.

Entendo que a conversa com AIA possa ser vista como uma espécie de democratização do acesso à saúde mental, que tem a questão de que você pode acessar um a uma conversa com AIA 24 horas por dia, 7 dias por semana, de qualquer lugar do mundo.

Porém, o que os profissionais de saúde recomendam é que AIA.

Sirva como um complemento e não como um substituto da terapia tradicional.

Agora você que tá ouvindo isso, talvez já tenha falado para o ChatGPT uma série de coisas que está tens assim, meu Deus, isso isso vazar e agora o que que eu faço?

Teve gente que me perguntou isso depois de ouvir o episódio que eu fiz outro dia, que se chamava o que não contar para o ChatGPT?

Eu fui pesquisar, tá?

Se você já compartilhou informações íntimas nas conversas com o ChatGPT, o primeiro passo é deletar manualmente essa conversa, que aí ela vai primeiro sumir do seu histórico de usuário e, normalmente, depois de 30 dias, a conversa vai ser excluída permanentemente.

Agora, se você quiser se garantir, você pode acessar um portal que tem lá de privacidade da openei, que é a empresa dona do chat BT, e abrir um privacy request.

Quer dizer, é um pedido de privacidade para deletar todos os dados associados a sua conta.

Só que aí, atenção, aqui tá?

Se você pedir isso, vai apagar tudo da conta.

Não vai apagar só aquilo que você não queria.

Vai ser como se você tivesse começando a usar o chat.

Naquele dia não tem como eu listar aqui o que você deve fazer se você abrir o coração com outras iais, então eu vou deixar essa pesquisa para cada pessoa, porque senão o episódio vai ficar com 2 horas de duração, ok?

Se você gosta do aprenda, não deixe de compartilhar esse episódio no seu Instagram e marcar a gente.

Eu tô lá no arroba aprenda podcast e no arroba Álvaro Leme eu volto a qualquer momento com umas coisas que você nem sabia que precisava saber.

Never lose your place, on any device

Create a free account to sync, back up, and get personal recommendations.