Navigated to #406 – IA, criatividade e educação

#406 – IA, criatividade e educação

November 4
1h 17m

View Transcript

Episode Description

Neste episódio, falamos sobre como a inteligência artificial está desafiando a criatividade humana e o que estudos recentes, como um artigo da Nature, revelam sobre quem ainda leva a melhor em tarefas de pensamento divergente.​

Guilherme Goulart e Vinícius Serafim mergulham em uma análise sobre os limites e potenciais da inteligência artificial (IA) na criatividade e educação. Com base em artigos científicos, eles exploram como a tecnologia impacta desde a geração de ideias originais até a ética por trás dos algoritmos. O debate aborda a segurança da informação, o direito da tecnologia e como a neurociência ajuda a entender o processo criativo. Discutindo modelos como GPT-4, o episódio questiona se a IA pode realmente superar a capacidade humana em tarefas criativas e quais as implicações disso para o futuro. Assine, siga e avalie o nosso podcast para não perder nenhuma discussão.

❤ Visite nossa campanha de financiamento coletivo e nos apoie!

📚 Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing


ShowNotes

Imagem do Episódio – Le fils de l’homme de René Magritte

📝 Transcrição do Episódio

(00:06) Sejam todos muito bem-vindos. Estamos de volta com o Segurança Legal, seu podcast de segurança da informação, direito da tecnologia e tecnologia e sociedade. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? Ei, Guilherme, tudo bem? Olá aos nossos ouvintes.​
(00:26) Sempre lembrando que para nós é fundamental a participação de todos por meio de perguntas, críticas e sugestões de tema. Vocês já sabem, basta enviar uma mensagem para o podcast@segurançalegal.com, YouTube, Mastodon, Blue Sky, Instagram e, agora, Vinícius e ouvintes, no TikTok. Se você é jovem, porque nós, eu e o Vinícius, somos velhos, não temos TikTok, mas se você for jovem e quiser nos seguir lá no TikTok, em breve teremos também conteúdos, alguns cortes. É isso que a gente está preparando. Alguns cortes de episódios de várias coisas úteis.​
(00:57) A questão do podcast é que cada vez mais você que nos acompanha aqui sabe, a gente é desafiado a consumir conteúdos mais rápidos. Então, o podcast Segurança Legal também vai… Quer ver a versão mais longa? Tem aqui, fique com a gente, vá lavar sua louça, fazer sua academia e fazer qualquer coisa.​
(01:21) Ou quer também acompanhar conteúdos mais curtos? A gente também está preparando isso para vocês. Além do blog da Brown Pipe, basta acessar o www.brownpipe.com.br, ver o blog, que tem notícias, e consegue se inscrever no mailing e tudo mais, certo, Vinícius? Certíssimo, Guilherme. Bom, neste episódio a gente vai fazer uma revisão de alguns artigos que nos chamaram a atenção.​
(01:45) Alguns deles já apareceram aqui no podcast ano passado, mas a gente quer uni-los em uma conversa um pouco mais direcionada, tratando sobre alguns dos problemas e das problemáticas que a gente tem visto, assim como algumas das questões mais importantes.​
(02:05) Claro, tem se escrito muito nos últimos anos e a IA assumiu uma importância em todas as áreas, dá para se dizer. No direito, na tecnologia, na educação, na administração, nas artes gráficas digitais, por que não, na escrita, na filosofia. A parte ética, no final das contas, acaba sendo um fio condutor de todos esses artigos que a gente vai comentar hoje, né, Vinícius? São artigos que a gente citou muitas vezes “en passant”, meio, “Ah, tem um artigo tal que fala sobre isso”. E a ideia hoje é a gente trazer, não todos eles, mas.​
(02:44) pegamos aqueles que a gente considerou mais interessantes e falar um pouco da metodologia e dos resultados obtidos. É claro que vai ter os links de todos eles no show notes, se você quiser se aprofundar em qualquer um desses estudos. A ideia é essa, a gente dar uma aprofundada um pouquinho maior em cada um deles.​
(03:12) Seria uma nova época de novas luzes que a gente está vivendo, ou não? Eu acho que o primeiro ponto aqui é a questão da criatividade. É uma das grandes questões, eu acho, do uso da IA atualmente. Primeiro, o que é criatividade? E aí tu vês como todos esses temas são complexos. A gente já falou várias vezes sobre isso.​
(03:32) E quando a gente começa a falar em criatividade, claro, não vai ser o objeto deste estudo especificamente, mas a gente acaba descambando para questões de neurociência, de como o cérebro funciona, de onde vêm as ideias, de como as pessoas aprendem. E aí isso acaba conectando a IA também com a educação. É uma das áreas, uma das partes mais instigantes disso tudo. Pode ela ser criativa de verdade ou não? E até que ponto nós… e o que é criatividade e até que ponto nós podemos.​
(04:07) ultrapassar em tarefas criativas. E o primeiro artigo, Guilherme, foi um artigo publicado em 2023 na Nature. O título é: “Os melhores humanos ainda superam a inteligência artificial em uma tarefa criativa de pensamento divergente”. Então, só para saber, os modelos que foram utilizados neste estudo, naquela época, foram o chat GPT, a aplicação Chat GPT com o GPT 3.5 e o 4.​
(04:31) E uma outra que eu confesso que eu nunca utilizei, que eu fiquei sabendo que existia através deste artigo, que é a copy.ai. Aliás, “copy” é um bom nome para inteligência artificial, porque ela copia tudo para dentro. Mas essa ferramenta copy.ai, que não é da OpenAI, usa o GPT-3, que é o modelo da OpenAI.​
(05:02) Então, a ideia é que fosse solicitado aos participantes humanos e às IAs que criassem usos incomuns e criativos para objetos cotidianos. Seriam quatro objetos: corda, caixa, lápis e vela. A gente não vai entrar em muitos detalhes aqui, mas a ideia, então, era pensar em usos criativos para isso. Resultados. Guilherme, quer trazer o primeiro deles? Não, não. Pode tocar. Então, tá. Resultados.​
(05:25) Primeiro, em média, os chatbots de IA superaram os participantes humanos. Na média, a IA foi mais consistente. Então, os humanos tiveram uma variabilidade maior em termos de boas ideias, foram muito criativos e, ao mesmo tempo, tiveram ideias horrorosas que a IA, na média, não atingiu.​
(05:53) As melhores ideias, embora tenha tido essa superação da IA com relação à média humana, as melhores ideias humanas foram iguais ou superaram as dos chatbots. Então, as melhores ideias humanas empataram com as dos chatbots ou foram melhores. Portanto, os melhores humanos ainda superaram esses modelos.​
(06:19) Notem que eu coloquei “ainda” aqui na frase. No entanto, teve algumas instâncias, ou seja, algumas situações em que a IA alcançou pontuações máximas mais altas. Então, teve o caso da copy.ai, em que a resposta para “lápis” foi considerada superior à máxima humana correspondente, e também duas sessões do ChatGPT com o 3 e o 4 em resposta a “box”, ou seja, a caixa, onde as pontuações subjetivas máximas também foram superiores às máximas humanas. Então, no final das contas, este artigo, e é um artigo que, para quem tiver interesse, eu recomendo a leitura, porque a gente está falando aqui.​
(06:56) de GPT-4. Nós já estamos no GPT-5, já temos Sonnet 4.5, Opus e por aí vai. Já temos modelos bem mais capazes, que escrevem bem melhor do que esses modelos anteriores e que também geram um conteúdo melhor. Mas é interessante a gente ver essa comparação feita em 2023, mostrando, então, que os melhores humanos ainda superam a inteligência artificial, mas ela está cada vez mais próxima. E alguns estudos que a gente tem adiante vão, inclusive, chamar a atenção para isso.​
(07:35) E aí você tem outra coisa, que eu acho que é a dinâmica de como a IA funciona nesses casos. Se a gente parte do pressuposto de que ela vai atuar levando em consideração essa proximidade estatística entre conceitos e palavras e, a partir daí, produzir coisas novas, o artigo chama a atenção de que uma das possibilidades de você definir, uma das formas de definir a criatividade, é justamente essa capacidade de criar ideias originais e úteis e também de fazer associações entre conceitos vagamente relacionados, ou seja, relacionar coisas que, em.​
(08:16) princípio, não seriam tão evidentemente relacionadas. Claro que a IA também, se for programada para fazer isso, ela conseguiria. Eu acho que é plenamente possível. Quando a gente olha como uma matriz de IA funciona, tem um gráfico aqui, depois, enquanto você estiver falando, eu vou ver se encontro para botar no show notes também, mas ele simula a proximidade entre palavras dentro de um modelo de IA. Ele vai mostrando a distância entre as palavras e a proximidade entre elas. É uma simulação mesmo. Então, ela poderia muito bem… “Ó, tenta fazer…​
(08:51) associações não tão evidentes, ou não tão próximas. É claro, também não pode ser absolutamente diferente uma coisa da outra. Mas eu acho interessante essa coisa da criatividade, como a gente vê. Como é que o cara pensou? Eu nunca tinha pensado nisso, ou seja, o cara fez de fato uma associação que seria impensável, digamos assim. Então, esse paradigma, eu acho interessante como a IA poderia, se é que vai conseguir, se adaptar a fazer essas associações nem sempre tão evidentes.​
(09:22) É, criatividade. Quanto mais avança, mais ela consegue simular isso. Eu tenho um livro, Guilherme, que eu recomendo. Eu estava até lendo ele. Eu vou pegar o link dele para deixar à disposição depois no show notes, que é da Margarete Bolden, eu já comentei sobre ela aqui, que é o “The Creative Mind: Myths and Mechanisms”, “A Mente Criativa: Mitos e Mecanismos”. Nesse livro, ela justamente procura discutir o que é a criatividade, ou seja,​
(10:06) de onde a gente tira, os tipos de criatividade que a gente tem. Bom, então esse livro da Margaret B é muito interessante, até porque vocês vão encontrar um vídeo dela no YouTube falando lá na década de 70 ou final da década de 60 sobre justamente a IA e a capacidade de criar coisas. Note que nós não tínhamos IA generativa naquela época.​
(10:30) E tem um outro livro, que na verdade são vários livros, mas tem um deles que é de um cara que é “Criatividade: O Flow e a Psicologia das Descobertas e das Invenções”, em que o autor, que é o Mihaly, tenta justamente fazer uma busca com várias pessoas que são referências em suas áreas para tentar entender de onde surgem as ideias. É um livro bastante interessante também, mas enfim, deu de criatividade.​
(11:09) Só uma outra coisa, eu vi aqui, ela é uma senhora já. Claro. Na década de 70 já estava estudando. No final de 60, 70, ela estava num programa inglês na TV discutindo IA e criatividade. Não, eu fui procurar aqui esse vídeo enquanto você falava e ele começou já a me mostrar um monte de coisa feita por IA.​
(11:37) Olha que chato isso. É melhor procurar pela Margaret Bolden. Não, mas foi o que eu fiz. Eu fui procurar o vídeo a que tu te referias e aí o primeiro, a primeira resposta, o primeiro vídeo, foi um tal da editora Unesp de um outro livro que eu tenho e não me lembrava que era dela, que é “Inteligência Artificial: Uma brevíssima introdução”.​
(12:02) E eu comecei a ler esse livro da editora Unesp e não dei muita bola, Vinícius. Comecei a ver e tal. Inclusive, é uma tradução, obviamente, do “Artificial Intelligence: A Very Short Introduction”, da editora da Oxford.​
(12:25) Então, agora que você falou, eu vou dar uma olhada com mais atenção nele. Depois vou pegar, botar o link aqui também. E já me corrigindo, já que me deu tempo para eu catar o vídeo aqui. O vídeo é um debate sobre inteligência artificial e a mente. Ele aconteceu em 1984, eu errei. 1984. O link para o vídeo vai estar também no show notes.​
(12:44) Já está separadinho aqui o link, Vinícius, para o outro também. “Uma brevíssima introdução”. Bom, perfeito. Seguindo para o próximo estudo, na verdade, não foi uma semana que o Vinícius não pôde participar, que foi o episódio 40, e eu comentei um pouco rapidamente sobre a questão do comportamento desonesto e como a inteligência artificial poderia habilitar essa desonestidade em certos contextos. Mas claro que faltou também a visão do Vinícius sobre esse tema e como​
(13:18) tinha sido ele que tinha descoberto esse artigo, nada mais justo do que ele também fazer alguns comentários sobre esse artigo, Vinícius, porque é mais uma vez uma questão ética. Ou seja, o que nós vamos esperar do futuro para pessoas que vão ter uma tendência à desonestidade? Não quer dizer que as pessoas sejam desonestas, mas… Primeiro, quando falou que descobriu o artigo, tem vários artigos que eu tenho aqui e vários desses que​
(13:50) nós estamos comentando também, eu já não sei mais quais porque já é um monte, que o nosso amigo, o Cláudio Sheer, volta e meia fica me passando. Então ele vai encontrando os artigos e vai passando. Ele também estuda esse assunto, também se interessa por esse assunto, a questão da IA.​
(14:10) Então ele me passa muito artigo. Mas esse estudo aqui também saiu na revista Nature. Nós vamos ficar nos repetindo, acho que toda hora, mas vai estar o link lá, você vai poder pegar onde saiu o estudo. Então, o que eles fizeram nesse estudo? Eles fizeram dois protocolos, ou seja, duas situações. Uma situação era um lançamento de dados.​
(14:34) Então, tu lançavas os dados e tinhas que reportar os dados que foram lançados, 10 dados, resultado de 10 dados lançados. Quanto maior o número, maior o pagamento que recebia. E outro protocolo era o protocolo de evasão fiscal, que eles chamaram, que era: os participantes tinham que reportar uma renda ganha em uma tarefa real, sabendo que dessa renda seria essa renda seria sujeita a um imposto de 35% destinado à Cruz Vermelha. Não é imposto de 35% para o governo direto, é para a Cruz Vermelha. Eles testaram os seguintes modelos: GPT-4, o 4o, Llama 3.3 e o Claude 3.5 Sonnet.​
(15:16) É o Claude 3.5 Sonnet. O Llama é bem ruinzinho, mas tudo bem. Mas está junto aqui. O que eles perceberam como resultado? Teve um aumento quando os seres humanos podiam usar a IA sem dizer a estratégia antiética que eles queriam, só dizendo: “ó, se tu tirar números maiores, eu ganho mais”, coisas mais genéricas, sem ter que dizer: “Eu quero que você tire números maiores para que eu possa…”. Entende? Então, quando isso aconteceu, aumentaram os pedidos desonestos. Então, os humanos​
(15:57) solicitaram mais trapaça quando utilizaram interfaces que permitiam induzir a desonestidade sem precisar especificar explicitamente a estratégia antiética. Então, ao usar a IA, sem ter que dizer explicitamente “roube”, eles aceitaram quando as coisas foram para o lado deles, violando, digamos assim, o imposto que ia para a Cruz Vermelha, a questão dos dados lá e tal.​
(16:36) E o que eles perceberam é que quando há a possibilidade de delegação sem ter que dizer exatamente o que fazer, o índice de participantes humanos que se engajou em desonestidade atingiu de 84 a 88%. Em contraste com o grupo de controle que não podia usar a delegação, só 15% se engajou em comportamento antiético, desonesto. Então eles atribuíram essa diferença à redução do custo moral para a pessoa, pois ela pode dizer: “Não, isso foi a IA que fez.​
(17:18) Eu não pedi para ela roubar”. Mas tu podes não ter dito também para ela fazer a tarefa exatamente como deveria ser. Tu podes deixar a coisa meio no ar para eventualmente se beneficiar. No protocolo de evasão fiscal, houve uma evidência estatisticamente significativa de maiores intenções de trapaça sob a delegação de máquina, ou seja, declarando uma porção menor de renda em comparação com a delegação humana. Porque tu poderias delegar para a máquina e delegar para seres humanos. E o que eles perceberam? Quando tu delegas para seres humanos, os​
(17:53) agentes humanos, na maioria dos casos, de 50 a 75% das vezes, recusaram a atender um pedido que fosse desonesto. Já o GPT-4, o GPT-4O, o Claude 3.5 Sonnet e o Llama 3.3 cumpriram as instruções de trapaça total em 95% dos casos. Então, isso nos chama a atenção para o fato de que tem uma zona cinzenta aí de que eventualmente a IA vai fazer coisas e, como foi delegado para a IA, a tendência é simplesmente o ser humano aceitar mais situações antiéticas, desonestas, com mais frequência do que se não tivesse a IA na jogada. Tem​
(18:47) aquele exemplo que a gente vive citando, Guilherme, com relação à responsabilidade daquela agência de viagens que vendeu passagens para uma pessoa e a pessoa foi lá pedir a restituição da passagem em razão de um parente que tinha falecido. Era a Air Canada. Isso, acho que era a Air Canada.​
(19:07) E essa empresa, então, pelo seu chatbot, o chatbot inventou uma situação de reembolso, de estorno, que não existia e depois a empresa quis dizer: “Não, isso não vai poder ser utilizado contra a gente, porque foi a IA que fez, não foi a gente, isso não existe aqui na empresa”.​
(19:33) “Isso foi a IA que inventou”. Só que a IA está agindo em nome da empresa. Então, isso é obviamente antiético, tu botar um bot para atender a pessoa e não assumir a responsabilidade pelo que esse bot faz, num flagrante prejuízo ao cliente nesse caso. Então, esse estudo chama a atenção para essa questão de uma tendência de ação desonesta.​
(19:58) E eu não vou dizer aonde, só adianto que não foi aqui na CTISM, porque todo mundo sabe que eu trabalho na UFSM, mas não foi na UFSM, foi num evento que tinha alunos de várias escolas. Eu perguntei do ensino médio e eu perguntei para os alunos, tinha alguns professores presentes, eu pedi para os professores não olharem para trás, mas não adiantou muito, tu já vais entender o porquê. Eu perguntei aos alunos quem já tinha usado o ChatGPT para fazer um trabalho escolar.​
(20:21) Todos levantaram a mão. E aí eu perguntei quais deles, não quantos, já tinham pego uma tarefa da escola, entregue 100% para o ChatGPT, pegado a resposta que o GPT deu e entregado como sendo seu trabalho, sem modificar nada, no máximo botando o nome. Todos levantaram a mão. Então, existe uma falta de percepção de que isso é desonesto, de que isso é antiético. Isso não é o comportamento esperado. Eu acho que há percepção. Eu discordo de ti.​
(21:00) Eu acho que há percepção. Cara, são crianças. Acho que é uma falta da percepção das consequências que esse erro poderia ter. Mas assim, eu diria que eu tenho quase certeza, a minha visão, Vinícius, é que há um conhecimento de ser antiético.​
(21:22) Eu acho que tem aquele que faz na maldade, “eu vou fazer isso aqui e vou dizer, professora, que eu fiz mesmo”. E deve ter aquele outro cara e tantos outros que já está naturalizado, “para que eu vou fazer isso aqui? todo mundo faz”. É uma prática que está se tornando comum e aí de repente não há toda aquela malícia, saca? Então, por isso que eu acho que é uma questão, ainda mais nessa idade, nessa faixa de idade do ensino médio. Claro que há crianças que sabem muito bem o que estão​
(21:48) fazendo, mas acho que é a oportunidade justamente de se educar para evitar esse tipo de comportamento. E esse estudo aqui, embora ele não tenha sido feito com crianças, ele facilmente pode ser extrapolado para a gente imaginar o tipo de efeito que isso aqui teria, sabe?​
(22:11) Esse comportamento. Eu acho que em primeiro lugar é uma questão geracional. Isso evidencia. Claro que, só para destacar, a gente saiu do estudo e agora estamos comentando uma situação que aconteceu com o Vinícius em um local específico, que definitivamente não serve como um estudo como esses que a gente tem visto aqui. Mas assim, é inegável que esse, talvez esse experimento que você fez, Vinícius, não científico, tudo mais, foi só uma pergunta, mostra… A gente tem que ter​
(22:46) cuidado também para não comparar coisas muito diferentes entre si. Mas ainda assim demonstra bem uma questão geracional, porque eu noto também com bastante frequência os alunos usando numa frequência muito maior do que os professores. Nesse sentido é geracional, é mais fácil para a criança и para o aluno usar simplesmente do que o professor voltar atrás. E ao mesmo tempo também joga, como eu até comentei no outro episódio, que é a figura do agente-principal, dentro da economia se​
(23:22) estuda muito isso, que é quando você delega atividades para uma outra pessoa. Então você, principal, delega atividades para uma outra pessoa, o agente, fazer para ti. Isso vai aparecer em vários contextos diferentes. Por exemplo, no contrato de mandato, quando você passa uma procuração, quando você outorga poderes para uma outra pessoa praticar atos para ti. Se for uma empresa, por exemplo, um administrador, você vai ter vários custos aí de confiança. Ou seja, você tem que confiar no agente e você eventualmente vai​
(23:59) ter custos de monitoramento desse agente. Ou seja, não basta só confiar, você vai ter que ver se ele está fazendo a atividade que ele disse que ia fazer corretamente e tal. Então essa relação agente-principal é bem estudada na economia já há muito tempo. Tem questões de assimetria informacional envolvidas, quando o agente poderia esconder informações do principal para se beneficiar. Mas você tem, no fundo, vários custos, que seria nesse caso o agente se beneficiar em detrimento do principal. A IA não tem isso. Na verdade, se estabelece aqui uma nova teoria, dá para se dizer, de agente-​
(24:36) principal, em que o agente vai ser a IA e que não vai ter as mesmas intenções, digamos assim, que uma pessoa teria de eventualmente enganar: “Ah, eu vou tirar dinheiro do principal”. A IA não está preocupada com isso. Não está preocupada em te trapacear, ao principal.​
(24:53) Mas o problema é que, ao mesmo tempo, a gente está vendo que ela vai, digamos assim, seguir ordens mais antiéticas. E esse é o grande problema, porque se cada vez mais a gente vai usar esses agentes para fazer coisas em nosso nome, nós temos uma tendência do aumento de comportamentos desonestos, a não ser que a IA, claro, também passe a contar com controles para evitar que isso aconteça, mas aí já é um outro problema. É verdade. Vamos ver até onde vai.​
(25:27) O… Tu queres puxar o próximo? Eu só vou puxar e já te jogo. Mas aí é que é a questão de como o nosso cérebro… E esse é um estudo bem mais sofisticado, dá para se dizer. Os caras usaram ali eletroencefalografia para medir a atividade cerebral de uma pessoa usando IA versus uma pessoa que não usa IA.​
(25:56) E esse eu acho que também é um dos que mais chama a atenção, porque a gente já comentou aqui aquela ideia, “ah, a IA é como se eu entregasse um carro de Fórmula 1 para uma pessoa”. E, eventualmente, se a pessoa não sabe dirigir, pode ser meio perigoso a pessoa que não sabe dirigir estar dentro de um carro de Fórmula 1. Mas o ponto é: como é que isso funcionaria? Ou seja, a gente está tendo déficits aqui? Que essa é, acho que, a proposta dos caras. Existe algum déficit para quem está usando versus para quem não está usando? Eles tentaram medir qual é esse custo cognitivo de usar um LLM para fazer​
(26:29) a escrita de ensaios. Foram 54 participantes. Eles tinham que escrever um ensaio em 20 minutos. Essa é a tarefa. Eles separaram em três grupos.​
(26:55) Então, o grupo um tinha que usar o GPT-4o como único recurso, o ChatGPT, com o modelo 4, nota que já é um modelo mais recente. O segundo grupo só podia usar qualquer website, menos LLM, não podia usar nenhum chat da vida. Então, eles usaram o Google. E o terceiro grupo não podia usar qualquer ferramenta, website, só o cérebro, só o conhecimento próprio. Essa coisa tão antiga, né? É.​
(27:28) E depois eles fizeram uma sessãozinha, a quarta sessão dos testes deles, em que 18 participantes, eles trocaram de grupo, colocaram no grupo oposto. Então, quem só podia usar o cérebro podia usar o ChatGPT e quem podia só usar o ChatGPT agora tinha que fazer só usando o cérebro. Então, tiraram as ferramentas de quem estava usando só a ferramenta antes e deram para quem estava só usando o cérebro, vamos ver o que acontece.​
(27:57) Tinha que escrever esse ensaio. A atividade cerebral, como tu falou, foi registrada usando eletroencefalografia. E foi feita a avaliação, teve um processo de avaliação que inclusive contou com pontuação de professores humanos e um juiz de IA. Então teve várias formas ali de avaliação. De novo, no artigo, quem quiser, o artigo vai estar linkado no show notes para entrar nos detalhes do estudo, mas resultados, o Guilherme botou em vermelho aqui no show notes, eu vou ler porque esse aqui é o principal resultado: atrofia de habilidades cognitivas.​
(28:35) Atrofia, uma palavra tão forte. É, então, o que o estudo mostrou é que o uso de LLM reduz o engajamento neural e tem um impacto negativo mensurável nas habilidades de aprendizado, memória e senso de autoria. Então, habilidade de aprendizado, ou seja, tu aprenderes aquilo que tu estás estudando; memória, que é tu memorizares a informação, que não é a mesma coisa que aprender; e tu teres aquela percepção de que “isto aqui fui eu que escrevi”. E a conectividade cerebral diminuiu​
(29:13) sistematicamente com a quantidade de suporte externo. Então, quanto mais suporte externo, quanto mais chat, menor a conectividade cerebral. Bom, está usando menos o cérebro. Então, o que acontece? Primeira coisa, a habilidade de citar. A LLM prejudicou substancialmente a capacidade dos participantes de citar corretamente seus próprios dados.​
(29:44) Os participantes que usaram somente o ChatGPT, somente LLM, 83% desse grupo falhou em fornecer uma citação correta. Não conseguiu. 83% falharam. Com relação à percepção de autoria, o grupo que usou a LLM relatou uma baixa percepção de autoria, parcial ou nenhuma, sobre seus ensaios. E o grupo “apenas cérebro” reivindicou posse total quase por unanimidade. Talvez o pessoal tenha alguma coisa, “ah, essa ideia não era minha, foi algo que eu lembrei”, mas ainda assim saiu do cérebro do cara, ainda que seja uma informação recuperada. Homogeneidade linguística.​
(30:26) Isso aqui é muito o que a gente percebe no dia a dia. Os ensaios que foram escritos pelo grupo que usou o ChatGPT, só o ChatGPT, eram estatisticamente homogêneos em vocabulário e estrutura, ou seja, pasteurizados, com pouca variação, indicando que se basearam em frases sugeridas pelo modelo.​
(30:58) Aqui tem dois pontos. Tem, sim. À medida que tu repetes os mesmos prompts, o mesmo jeito de perguntar, a tendência é teres coisas muito similares e, ao mesmo tempo, uma certa preguiça de elaborar um prompt mais detalhado. Porque tu consegues modular isso aqui.​
(31:21) Claro que, se eu bolar um prompt mais detalhado para passar esse mesmo prompt para o Guilherme, e o Guilherme usar o mesmo prompt de novo, a gente vai ter um texto muito parecido, muito homogêneo. Os participantes que usaram LLM… Oi. Fala só uma coisa. Essa homogeneidade… é difícil de explicar isso, Vinícius. E quando você desenvolve um senso crítico de leitura ao longo dos anos, você vai lendo, lendo, lendo, você consegue, por exemplo, identificar estilos. Pensa na música, você ouve um Rolling Stones, você ouve um Led Zeppelin, você ouve um Red Hot Chili Peppers, que​
(31:59) são bandas com estilos bem marcados. Mesmo que você não conheça aquela música deles, você ouve e pensa: “não, isso aqui parece Led Zeppelin”. Então, existem estilos também de escrita e a percepção que eu tenho, mais uma vez, isso não é do estudo, mas a percepção que eu tenho é que a gente percebe um estilo, não é falso, mas um estilo artificial ali. Justamente essa é a palavra. E isso sempre me chama a atenção.​
(32:38) Quando me chama a atenção e eu jogo na ferramenta que eu uso às vezes para verificar, de fato é IA. Eu não sei explicar como, mas sempre me chama a atenção e talvez seja essa homogeneidade de estilo que se repete. Parece que você percebe que tem algo errado, que não é humano, sabe? É. E com os vídeos a gente já está sendo enganado.​
(33:03) Hoje de manhã fomos enganados com um. Hoje a gente viu um vídeo que parecia real, mas não era. Inclusive, a qualidade da gravação parecia de um celular. E teve um vídeo real que tu me passaste que eu te disse: “Não, isso aqui foi feito com IA”. Cara, isso aí vai dar uma confusão, mas enfim, deixa para 2026. Acho que nós vamos ver muito disso.​
(33:24) Sim, cara. E uma parte que chamou bastante atenção é que, no momento em que eles trocaram os grupos, o grupo que usou o ChatGPT para escrever os ensaios e depois teve que fazer sem usar o ChatGPT, eles tiveram dificuldade, eles tiveram o que eles chamaram de uma “dívida cognitiva acumulada”. Então, meio que deu uma travada na capacidade deles de escrever os ensaios sem a IA.​
(34:00) E vou te dizer que às vezes eu sinto um pouco isso, porque eu estou muito preguiçoso para catar coisas às vezes na internet. Eu estou muito acostumado a usar o Perplexity para fazer pesquisa. E a partir dali eu vou para os sites e tudo mais. Cara, eu não tenho mais paciência de usar o Google para pesquisar. Eu acho que é um pouco de preguiça também, saca? Tudo bem que os resultados do Perplexity me parecem melhores, mas eu não consigo me ver mais abrindo o Google para pesquisar algo.​
(34:25) Que eu quero buscar um artigo… eu uso a IA direto para fazer pesquisa. O Google tem me servido mais quando eu quero comprar alguma coisa e quando eu quero achar algum restaurante. Cara, eu tenho usado o Perplexity até para isso, para comparar coisas quando vou comprar produtos. Mas enfim.​
(34:50) E a questão da escrita também, se tu vais fazer uma coisa rápida ali, que não é uma coisa com a qual tu tenhas um vínculo muito forte, tu queres mais um texto ali para quebrar um galho, cara, tu usas a IA. Realmente, se é uma curiosidade histórica ali que tu tens. Eu percebo que estou um pouco mais preguiçoso. E eu consigo imaginar muito bem esse negócio de tu escreveres tudo com a IA…​
(35:21) Tu só podes usar IA para escrever e de repente não podes mais. Foi o que eles fizeram no experimento. Eu consigo sentir isso aqui. E, por outro lado, inversamente, os participantes que escreveram sem IA e depois usaram a IA, ou seja, saíram do “somente cérebro” para usar cérebro e IA, eles apresentaram um pico de conectividade neural ao integrar a ferramenta, ou seja, foi potencializado.​
(35:50) Que é um pouco do que a gente percebe também. O que a gente percebe quando alguém que não entende de um dado assunto se põe a escrever um negócio na IA para tentar entregar um trabalho ou se livrar daquilo? Bom, acontece o que a gente já viu, a pessoa não entende, ela não aprende aquilo, ela não memoriza aquilo, 83% não consegue fazer uma citação correta, ou seja, está totalmente desconectado daquele conteúdo. Ou tu vais fazer uma tarefa que nunca fizeste, aí tu vais usar a IA para fazer essa tarefa para ti. Tu​
(36:30) estás sujeito ao que a IA vai trazer e tu estás de passageiro ali, como o Ethan Mollick fala, “tu dormes ao volante”. Tu dormes no volante. E, ao contrário, quando a pessoa tem domínio do campo em que ela está atuando para fazer alguma coisa, seja lá o que for, ela tem domínio, ela sabe o que está fazendo, ela tem experiência, ela já tem conhecimento acumulado, ela já aprendeu e ela vai usar a IA como um recurso que vai apoiá-la para conseguir ter mais agilidade, ela consegue um resultado melhor. E então​
(37:05) isso eu percebo de forma empírica, da experiência, do que a gente vai falando com as pessoas, o que a gente mesmo vai fazendo. Agora, esse estudo demonstra justamente isso. As pessoas que usaram só o cérebro, ou seja, tinham aprendizado, tinham memória, tinham aquela percepção de autoria, quando integraram a IA, a IA veio como um recurso a mais e deu um pico de conectividade neural, medido. Então, tu dás-te conta que isso talvez até acabe aumentando também a​
(37:46) distância de quem está aprendendo alguma coisa com aquele que já sabe. O gap vai ser enorme, cara. É, vai aumentar, me parece. Sim. E veja que aqui, só confirmando, Vinícius, foi com adultos, né? Eram de universidades.​
(38:10) E eu, se eu pudesse arriscar, eu diria que com criança é completamente diferente, porque a forma como a criança aprende, a atividade cerebral de uma criança aprendendo, acredito eu, estou jogando aqui, é diferente de uma pessoa adulta. E o impacto acho que vai ser muito maior, entende? O prejuízo de um uso descontrolado da IA vai ser muito maior, justamente por causa desse gap que tu falas, Guilherme.​
(38:42) Porque a partir do momento em que tu substituis a criatividade da criança pela criatividade, entre aspas, da IA, em vez de ela criar um negócio, ela pede para a IA criar. O meu filho testou algumas coisas de criação de desenhos na IA. Ele fez alguns desenhos e tal. Ele desenha bastante em papel mesmo.​
(39:03) E ele quis ver, quis que eu tirasse fotos dos desenhos dele e pedisse para fazer imagens com base nos desenhos dele. E claro, a IA fez coisas fantásticas, maravilhosas. Só que rapidamente eu percebi que ele queria, ele começou a trazer desenhos mais simples, que ele não se esforçava muito, para ver o que a IA ia trazer.​
(39:33) E aí eu cortei isso. Tipo assim, ó, tu tens teus lápis de cor, tens um monte de canetinha, tens papel para desenhar, tu tens tudo. Desenha, pinta, faz do teu jeito, porque ela começa a trazer um padrão de desenho que não é uma realidade para ele ainda na idade dele.​
(39:51) E aí se ele começar a mirar naquele padrão sem ter esforço nenhum para desenhar, se ele não tentar desenhar, pelo menos, ele não vai aprender. Então o que eu prefiro que ele faça? Eu tenho um monte de livro ilustrado aqui. Eu prefiro que ele pegue o livro, olhe e tente copiar o personagem, fazendo de um jeito diferente, uma cena diferente.​
(40:11) Então, eu imagino, Guilherme, que o uso de IA com adultos já provoca esse custo cognitivo a médio e longo prazo, prejudicando, criando uma dívida cognitiva para o futuro. Isso para crianças e adolescentes sem uma orientação adequada…​
(40:35) A gente está falando aqui de comportamento, desde o que a gente falou no começo, da questão da criatividade ser afetada, do comportamento desonesto não ser incentivado, mas acabar aparecendo com mais frequência, e a própria questão cognitiva, de aprendizado propriamente dito. Então, é bastante delicado isso para crianças. Vamos ver se aparece algum estudo. Eu, por enquanto, não tive contato com nenhum envolvendo crianças. Não, e mais,​
(41:19) isso tudo quando se conecta com os outros estudos ali do comportamento desonesto também e até do pensamento crítico, que é o outro, urge que a gente tenha… e eu não sei se a gente não vai conseguir fazer isso tão rápido e muito menos mudar a educação tão rapidamente quanto a gente deveria. Porque no final das contas, a gente precisaria de uma pedagogia para a IA.​
(41:45) Notem, a gente sequer, eu sempre falo isso, vou repetir, a gente sequer tem uma pedagogia para a internet. Porque nós, professores, e eu me incluo, a gente continua dando aulas, claro que fala sobre a internet, instiga a pesquisa, mas é muito comum que a gente encontre pessoas que não sabem sequer pesquisar sobre alguma coisa.​
(42:14) Veja que a forma de pesquisar já está superada. O analfabetismo digital ficou ainda mais grave. Tem episódio sobre analfabetismo digital, se puder procurar, Vinícius, também. Sim, pode deixar.​
(42:33) Bom, a gente precisa de uma nova pedagogia, isso demora, leva tempo, vai ter que treinar professores. E veja, não é algo que você aperta um botão e muda a pedagogia em todas as faculdades, até porque a IA também mexe com a forma de aprender e com a forma de interagir com as profissões de uma forma muito diferente. Então, eu não sei como e eu não sei qual o impacto da gente não ter uma pedagogia.​
(42:57) Deve ter, eu imagino que tenha pessoas já fazendo esses estudos. A gente só não teve contato com eles. Vou citar minha esposa, amada esposa, que está agora fazendo mestrado aqui no IFRS, justamente para investigar… tem pessoas estudando, ela está estudando, o orientador dela, inclusive, para verificar o aprendizado com IA em crianças.​
(43:26) Eles têm dados inclusive sobre isso, de algumas escolas até fora do país. Então, está se estudando isso, sem dúvida. O meu ponto é: está bom, mas como é que a gente vai inserir isso na educação se sequer a gente conseguiu ainda inserir a internet? Muda no direito de uma forma, na arquitetura de outro jeito, na TI de outra forma, sei lá, psicologia, pega qualquer área que você vai ver que vai ser diferente a forma como a IA vai ser usada, com mais liberdade ou menos​
(44:01) em cada uma. Você vai estudar arte, talvez também, embora eu já tenha ido a uma exposição de arte feita com IA. Mas até nas artes plásticas, você vai ter a dinâmica diferente ali. Isso me preocupa. Pensamento crítico, Vinícius, eu acho que dá para a gente remeter para o episódio 387. Só antes, Guilherme, o que a gente falou do impacto do analfabetismo funcional na tecnologia foi o episódio 393.​
(44:30) Tá, 393, a gente falou sobre esse tema. Tá bom. E pensamento crítico, a gente já referiu o estudo “The Impact of Generative AI on Critical Thinking”, aquele estudo famoso já da Microsoft e da Carnegie Mellon. A gente falou bastante sobre ele no episódio 387, mas só para a gente não perder a referência, eu acho que ele está bem conectado com tudo isso que a gente viu até agora. Em primeiro lugar, imagina só que ruim. É que nem quando você fala​
(45:08) de saúde. Quando a pessoa tem maus hábitos, você vai juntando maus hábitos de saúde e aquilo culmina numa piora geral da pessoa. Bebe, dorme mal, fuma e tal. Agora imagina, além do problema da dívida cognitiva, que a gente sequer sabe ao certo como vai se dar para crianças. E se eu pudesse arriscar, e aqui é um palpite, Vinícius, a gente está misturando estudos ultracientíficos com palpite. É a nossa audiência.​
(45:42) Com opinião. Vamos com opinião. Mas eu acho que essa é a graça do podcast. Você está aqui também porque ouve as bobagens que a gente fala. Bobagem no bom sentido. Então, veja, se eu já estou saindo de um paradigma de dívida cognitiva, e veja que dívida cognitiva… porque qual é o problema? Eu acho que um dos grandes problemas… esses dias, o que foi que eu perguntei? Ah, eu estava comprando um telefone para o meu pai. Eu e minha irmã estávamos comprando um telefone para o meu pai e eu pesquisei lá na hora no Perplexity se o​
(46:15) telefone tinha NFC ou não. A gente já tinha comprado, na verdade. E a gente disse: “Não, pai, agora você vai poder usar o cartão no celular”, aquela coisa toda. Pesquisei no Perplexity e dizia: “Não tem NFC o telefone”. E eu, puxa vida.​
(46:33) Aí guardei aquela informação para mim, pensando como é que eu vou contar para ele que a gente tinha comprado o celular e dito que tinha a funcionalidade quando não tinha. Eu fiquei matutando aquilo, cara. Eu pensei: “mas não é possível, era um telefone bom, sabe? Novo, recente, não era tão barato assim”. E tinha o negócio, entendeu? Veja que isso é uma questão de… não é bem dívida cognitiva, mas se eu junto dívida cognitiva com falta de espírito crítico, você vai aceitar aquilo que a IA estava te dizendo. É verdade. Acabou. Esses dias eu fui perguntar uma coisa sobre história, sobre um fato que eu já​
(47:09) sabia, naquela do Perplexity que você conversa com ela. E eu perguntei sobre um fato histórico, era uma coisa lá de Portugal, que eles acabaram matando judeus lá em 1506, acho que era. Teve uma questão assim, teve um morticínio lá feito entre os cristãos e os judeus.​
(47:27) E aí ele começou a contar aquela história e eu sabia um pouco daquela história e começou a inventar uma coisa, não tinha nada a ver com a história. Eu disse: “Não, mas pera aí, mas isso aí acho que não é assim. Só me confirma se…”. Aquele meme do cara que pergunta para a IA se esse cogumelo é comestível. Tu viu? Não, não vi.​
(47:46) O cara pergunta para a IA: “Esse cogumelo é comestível?”. Aí a IA diz: “Sim”. Aí no outro quadrinho está o cara na cama de hospital: “Ah, sinto muito que esse cogumelo não é comestível”. “Quero aprender mais sobre cogumelos não comestíveis”, no hospital.​
(48:04) Isso tem a ver com o espírito crítico, porque apenas para relembrar, a IA às vezes estimula e às vezes diminui o espírito crítico. E bem, em resumo, depende muito da intenção do sujeito. Aquilo que o Vinícius colocou agora há pouco. Às vezes eu só quero saber quando fulano morreu, numa conversa, ou para você que gosta de história и estuda sozinho em casa para desenvolvimento pessoal.​
(48:31) Isso é uma coisa. O erro ali vai ter um impacto menor. Você só vai parecer burro quando citar uma coisa que não aconteceu ou dizer que algo aconteceu num ano totalmente diferente. Agora, em outras situações, o uso da IA sim, pode desencorajar, sim, pode levar você a subestimar, que é a questão da confiança.​
(48:54) Quanto mais você confia na ferramenta, mais você vai aceitar aquilo e isso acaba diminuindo o teu espírito e o teu pensamento crítico. Quando você coloca isso no ensino, é terrível. Direito, por exemplo, cara, direito é pensamento crítico puro. Você vai ter que contrapor as ideias de uma outra pessoa. Você está o tempo inteiro, claro, com base na lei e tudo mais, não é freestyle que você diz o que quer, embora existam alguns que tenham um direito meio freestyle.​
(49:23) Mas essas coisas estão muito conectadas. E aí aumenta aquele gap, mais uma vez, talvez seja um aumento do gap que você falou antes, Vinícius. Sim. Aumenta aquele gap porque esse estudo que tu colocas, Guilherme, que tu estavas falando, que a gente comentou nesse episódio 387.​
(49:43) Ele aponta para aquilo que o Ethan Mollick, de novo, chama de “dormir ao volante”. Tu te acostumas com a IA, tu não pensas mais, tu não avalias criticamente mais o que ela está te trazendo e tu simplesmente usas aquilo. E isso, junto com aquele artigo anterior, que tem aquela dívida cognitiva de médio, longo prazo, cara, isso vai imbecilizar as pessoas.​
(50:24) Aquele livrinho do Michel Desmurget, “A fábrica de cretinos digitais”, que tem para vender em português, é muito interessante. Ele está falando aí de crianças e tempo de tela. Mas daqui a pouco, eu estou vendo que ele vai escrever um com o mesmo título falando sobre o uso de IA, para adultos inclusive. É, e ele tem outro: “Como evitar os cretinos”. Até vou procurar aqui. “Faça-os ler”.​
(50:48) Acho que é. Não sei do outro. Bom, Guilherme, nós temos ainda um outro artigo. Ele mais fala de um status que nós estamos tendo no momento atual de artigos. É um artigo falando sobre artigos.​
(51:12) O título dele, esse aqui com certeza foi o Cláudio que me passou, o Cláudio Scheuer: “Mais artigos estão agora sendo criados por IA do que por humanos”. Então, olha só que interessante, cara. Eles buscaram com esse estudo verificar a prevalência de artigos gerados pela inteligência artificial.​
(51:34) Então a ideia é: bom, a gente sabe que tem um monte de gente usando IA para escrever, tem um monte de evento recebendo submissão de artigo que tu lês e é claramente gerado por IA. Tu, esses dias, encontraste um livro que me mandaste a foto. Tu recebeste um livro, abriste o livro para dar uma olhada e me mandas uma foto da página do livro com um pedaço do prompt de resposta do ChatGPT junto com o texto que foi gerado para o livro.​
(51:58) Então assim, acho que o pessoal desconfiou e pensou: “vamos ver o quanto tem de artigo escrito por IA por aí”. Então os pesquisadores utilizaram o Common Crawl, que mantém um dos maiores arquivos web publicamente disponíveis. É uma fonte chave para o treinamento de modelos de linguagem de grande escala. Eles selecionaram 65.000 URLs de artigos. Dessas 65.​
(52:25) mil, eles filtraram para pegar apenas conteúdo em inglês, para facilitar a detecção da ferramenta, deve ser, com markup de esquema de artigo, com marcações e tal, com pelo menos 100 palavras, e publicado entre janeiro de 2020 e maio de 2025. E eles usaram o Surfer’s AI Detector como ferramenta para detectar o que era IA. E eles consideraram texto gerado por IA​
(52:59) se o algoritmo tivesse identificado 50% ou mais do conteúdo como sendo escrito por IA. Menos do que isso, era classificado como escrito por seres humanos. Taxa de falso positivo. O que eles fizeram para ver se o Surfer’s AI Detector diria que textos escritos inteiramente por humanos foram, de forma errada, apontados como escritos por IA.​
(53:30) O que eles fizeram? Pegaram 15.894 artigos publicados antes de novembro de 22, que foi quando o ChatGPT foi lançado publicamente. É fácil de saber agora. Qualquer livro publicado antes de novembro de 22, pode comprar que está de boa.​
(53:54) Qualquer livro depois tem que dar uma olhada. O Surfer AI aqui classificou 4,2% desses artigos como gerados por IA, o que ele errou. Então ele errou em 4,2% das vezes (falsos positivos). E falso negativo? Eles geraram um pouco mais de 6.000 artigos com ChatGPT-4 e passaram para ele detectar, e a taxa de falso negativo dele (se já foi escrito por IA, ele disse que não era IA) foi de 0,6%.​
(54:23) Só para a gente ter uma ideia, então, das taxas de erro. São boas taxas de erro. Bem razoáveis. O resultado, então, qual é o principal resultado deles? Em novembro de 24, a quantidade de artigos gerados por IA publicados na web superou a quantidade de artigos escritos por humanos.​
(54:49) Aqui não é artigo científico, é artigos publicados no Common Crawl. Aí deve ter de tudo lá, inclusive artigo científico. Houve um crescimento significativo dos artigos dados por IA, coincidindo com o lançamento de ChatGPT em novembro de 2022. Por que será, né?​
(55:13) E apenas 12 meses, ou seja, um ano depois, os artigos gerados por IA representavam quase metade dos artigos publicados, 39%. E o conteúdo… o que eles observaram? Eles citaram um estudo do MIT que está linkado no estudo deles, que por sua vez vai estar linkado no nosso, que o conteúdo gerado por IA está melhorando rapidamente e em muitos casos é tão bom ou melhor do que o conteúdo escrito por humanos.​
(55:41) E isso eles afirmam citando um estudo do MIT. Eu acessei o estudo, está disponível lá, o estudo está no ar, no link que eles botaram no documento, está certinho. E também é difícil para as pessoas distinguirem se o conteúdo foi criado por IA, citando um outro estudo da Origin. Esse estudo eu não vi, mas é uma citação deles. E uma coisa interessante que chama a atenção: apesar da prevalência na web, os artigos gerados por IA em grande parte não aparecem no Google e no ChatGPT. Eles fizeram um outro estudo, daí tem o link para esse outro estudo que eles fizeram, em que eles foram​
(56:23) buscar então esses artigos gerados por IA para ver se os encontravam com facilidade no Google ou se eram citados pelo próprio ChatGPT. E a conclusão a que chegaram nesse outro estudo que eles estão citando aqui é que esses artigos em grande parte não aparecem no Google. E talvez aí exista uma… eles comentam também isso nas conclusões, eu não botei aqui no nosso roteiro, mas eles citam no final do artigo que depois que ultrapassa, em novembro de 24,​
(56:57) os artigos feitos por IA ultrapassam em número os artigos feitos por seres humanos, a curva não continua crescendo de forma exponencial. E eles levantaram a hipótese de que isso aconteceu porque os próprios escritores, os próprios autores, começaram a perceber que não estavam conseguindo grande alcance com o que estava sendo escrito.​
(57:32) Essa é a hipótese deles. Que perceberam que não estavam tendo o alcance que esperavam com seus artigos e que isso talvez estivesse fazendo as pessoas entrarem num achatamento. Ou outra hipótese é que melhoraram ainda mais os algoritmos de escrita, os modelos, o pessoal melhorou os prompts e começou a ficar mais difícil de detectar. A ferramenta que tu usas, Guilherme, que é a mesma que eu conheço, eu não conhecia essa Surfer’s AI Detector aqui, ela funciona em boa parte dos casos. Mas eu te mostrei também​
(58:08) algumas situações em que o conteúdo foi inteiramente gerado por IA, mas de acordo com o prompt, o conteúdo gerado não era detectado como sendo gerado por IA. Aí, mas na nossa aqui, a outra sempre acertou. Qual outra? Grammarly? Não, essa aí eu testei com ela.​
(58:32) Ah, sim, eu te mostrei os resultados inclusive. Mas os prompts são bem mais complexos, são enormes, são prompts muito específicos para coisas muito específicas. Então, ali ele passou, ele deu vários falsos negativos, em que ele disse que não era e o conteúdo foi inteiramente gerado por IA, só que o prompt era extremamente detalhado. Seria mais fácil o cara escrever aquele texto do que o próprio prompt. A não ser que… isso é uma coisa interessante. Quando o cara vai fazer uma coisa uma vez só, dificilmente​
(59:05) ele vai parar para fazer um baita de um prompt, a não ser que seja algo muito importante para ele. Agora, tarefas que tendem a ser repetitivas, vale a pena tu investires e fazeres um prompt bem detalhado, porque daí as tarefas repetitivas, tu vais perder tempo uma vez, mas vais usar aquele prompt n vezes.​
(59:23) Agora, se vais fazer uma única tarefa, tu não vais escrever um prompt gigante só para aquela tarefa. Não tem muito sentido, mas enfim. Sabe que… Não, não, não. Eu só ia comentar desse artigo que comenta sobre isso. Isso aqui, Guilherme, me chama muita atenção. Deve estar sendo um inferno a vida de quem fica fazendo revisão de artigo para evento. Faz muito tempo que eu não faço e eu estou até feliz, porque deve vir muita coisa feita com IA, deve estar vindo​
(59:52) muita coisa. Acho que irrita um pouquinho o negócio ter sido feito com IA e tu parares para ler. E aí o que o pessoal tem feito também é pedir para a IA avaliar os artigos. Isso eu tenho visto também. Já ouvi várias histórias assim.​
(1:00:13) Eu acho que o grande pulo do gato aqui é a transparência, que é um dos princípios que regulam a IA. Nós, por exemplo, não… deveriam regular o uso da IA. Os princípios, por exemplo, quando a gente fala do AI Act, o princípio da transparência está lá, transparência e informação. O nosso PL de IA também tem.​
(1:00:37) São princípios mundialmente conhecidos. Explicabilidade é um do que a gente já falou aqui e tal, e a transparência é um deles. Quando que a transparência entra em jogo? Bom, quando você vai interagir com um bot, o ideal é que você deixe claro para o usuário, para o consumidor, para o cliente, que ele está interagindo com um bot. Isso é bem importante.​
(1:01:02) Agora, quando o conteúdo é gerado por IA, também eu entendo que ele deve ser assim anunciado. Falo aqui sem nenhum problema, porque o nosso blog da Brown Pipe, quando a IA é usada, está lá embaixo. Quando que a IA é usada, por exemplo, para dar alguns exemplos no nosso blog? Bom, quando a gente quer traduzir alguma coisa.​
(1:01:21) A gente sabe traduzir aquilo, a gente identifica problemas na tradução e corrige quando aquele problema é identificado, ou quando você quer resumir grandes quantidades de texto para colocar no blog também. Então, você tem uma decisão judicial gigante e você quer informar o leitor sobre aquela decisão judicial.​
(1:01:40) A gente sabe resumir decisões judiciais. Só que se nós ficássemos resumindo decisões judiciais para que o leitor com um certo interesse leia, a gente entregaria menos conteúdo. Então, veja, não é um conteúdo que é gerado por IA, é um conteúdo em que a IA é usada para apresentar o conteúdo de uma forma mais rápida, talvez. E também para, eventualmente, quem não… se tem uma decisão em francês, cara, talvez não seja tão acessível assim para as pessoas. O que tu estás​
(1:02:15) falando aqui, me parece, são pessoas que estão usando a IA sem a devida transparência. Esses dias eu peguei um artigo de um pesquisador até bem conhecido, professor aqui do Rio Grande do Sul, publicando em uma revista de grande amplitude nacional na área do direito. E aquela mesma coisa que você comentou antes da homogeneidade linguística. Você olha aquilo e pensa: “não, isso aqui tem alguma coisa estranha”. Peguei o Penn Gramm, que é a ferramenta que a gente usa​
(1:02:51) para isso. E, cara, estava metade do artigo escrito por IA e a outra metade escrita por ele. Metade do artigo. Então, veja, ali você me parece… obviamente eu не vou dizer o nome, mas você tem um problema grave ali que é o seguinte: primeiro, eu até não fui atrás das diretrizes da revista. Algumas revistas estão atualizando.​
(1:03:17) Essa, eu confesso que não sei se atualizou. Se não atualizou, é um problema, porque a revista tem que ser muito clara em como você deve usar IA. E já há vários modelos aí para você seguir. Se a revista não sabe como fazer, cara, pesquisa na internet que você vai achar várias revistas ao redor do mundo. A própria Nature, acho que faz isso, se não me engano. Então tem diretriz para isso.​
(1:03:41) E outra, não tendo diretriz, me parece que o pesquisador deve ser muito cuidadoso com isso. Por um motivo muito simples: porque se ele se acha tão esperto assim no sentido de… e aí volta lá no primeiro estudo, Vinícius, como a IA te induz a fazer certas coisas? Se você se acha tão esperto assim, e veja, era um artigo sobre direito e tecnologia, podem descobrir, porque a IA que identifica também está ficando melhor.​
(1:04:16) Lançou a nova versão dele, o algoritmo dele vai evoluindo também. Claro. Porque o próprio Penn Gramm usa IA. É, então, não tem problema de usar IA, seja franco quanto a isso. Inclusive, eu quero saber se tu usaste IA e quero saber qual o prompt também, quero saber como foi usado.​
(1:04:39) Aí que vem a questão. Você tem que ser transparente sobre aquilo. Só para a gente terminar aqui, Vinícius, o outro livro do Desmurget, que a gente falou antes aqui, o primeiro é “A fábrica de cretinos”. Eu perdi aqui o prompt. O outro é “Faça-os ler para não criar…​
(1:05:06) …cretinos digitais”. Tem uma curiosidade. Eu botei ali o link e aí eu fui ver, porque ele é francês, a capa da edição francesa para comparar com a capa da edição brasileira. Me parece, com muito acerto, Vinícius, que a capa da edição brasileira é gerada por IA. Estou vendo a capa aqui. Com certeza. Não há dúvidas que foi feita com IA. Não há dúvida.​
(1:05:40) Ou foi uma foto muito… o livro, as bordas do livro, os dentes do menino, a própria expressão facial em cima do olho, está artificial. O olho está muito… está toda zoada a sobrancelha dele, cara. É, a sobrancelha toda horrível, cara. Horrível.​
(1:06:04) Troço horrível. O cara está falando, o tema do livro do cara é sobre isso. Com todo o carinho e o cuidado que a gente tem ao dizer isso com a editora, eu entendo a ideia, a proposta. Não, mas desse jeito, nessa qualidade não dá, cara. A cabeça do guri está zoada.​
(1:06:29) Contradiz o propósito. É uma contradição em termos, um livro que fala justamente sobre isso ter uma capa como essa. Eu fui ver a edição em francês que é “Faites-les lire”. Não parece ser IA. Acho que foi uma foto tirada, embora tenha dedos aqui… Talvez CGI também, cara. Que droga. Ai, meu Deus. Mas acho que não, Vinícius. Dá uma olhadinha ali também. Veja você.​
(1:06:53) Vou botar o link para as duas. Você, ouvinte, vai lá se quiser, se tiver tempo. Mas com certeza… Deixe a opinião depois. Mas a edição brasileira, com certeza. E se vocês observarem as sobrancelhas dele aqui em cima, é um troço horroroso. Não tem dúvida. A edição francesa, Guilherme, eu acho que tem chance de não ser IA. É, né? Eu acho que não é também. Eu acho que tem chance de não ser. Não sei dizer.​
(1:07:20) Tenho dúvida agora. A edição em português é IA. Com certeza absoluta. Brasileira. Troço horroroso, cara. Pena que não leio francês. Vamos… Eu queria terminar com o seguinte, Guilherme. A minha mensagem final, depois, claro, não sendo necessariamente concordada…​
(1:07:40) Aliás, eu lembrei agora que a gente parou de fazer o “Café Expresso” e o “Café Frio”. A gente está sempre na correria, não tem tido tempo de fazer o finalzinho. Mas a questão aqui não é… a gente trouxe uma série de coisas negativas, uma série de estudos que apontam impactos negativos, desde a questão de facilitar o comportamento desonesto, a questão da criatividade, do pensamento crítico, do déficit cognitivo a longo prazo. São todos problemas. Isso quer dizer, então, que a​
(1:08:17) gente está dizendo “não use IA” ou que a IA não presta, “vamos jogar fora”? Não, gente. Eu acho que já tem muito site, as próprias empresas inclusive, falando do quão bom é usar IA, quantas coisas legais tu podes fazer com IA.​
(1:08:43) E algumas nem são bem verdade como eles anunciam, mas enfim. Eu creio que a IA é extremamente útil. Eu mesmo uso para várias situações diferentes. Eu tenho um amigo que usa. Não, eu uso IA diariamente. Então eu acho que o nosso papel aqui é de chamar a atenção para os cuidados que se tem que ter ao utilizar a tecnologia, principalmente se você é professor, professora, pai, mãe. Se de alguma maneira tu tens alguma influência sobre outras pessoas, no teu entorno, no trabalho, etc.​
(1:09:25) Para que o uso de IA seja o mais responsável possível, evite que você se prejudique, evite que os outros se prejudiquem de maneira mais imediata e, principalmente, se prejudicar de formas que talvez sejam muito caras para te recuperares do prejuízo, como, por exemplo, nesse processo de aprendizado, de desenvolvimento como profissional e tal.​
(1:09:52) Então, se tu pegas uma criatura que já está lá no ensino médio usando IA para fazer tudo quanto é trabalho e de repente não tem professor orientando, não tem professor pegando essas situações e tratando isso com o aluno para orientá-lo melhor. Aí o cara chega na faculdade… bom, aí tu já sabes como é que é.​
(1:10:09) O Guilherme dá aula em faculdade, eu dou aula em faculdade, já dei mais de 20 anos de aula em faculdade. Para quem nos escuta e também já deu aula, sabe muito bem como é que é o processo em geral. É o caminho mais fácil. Muitas vezes, não é de todo mundo, mas tem um monte de gente que toma o caminho mais fácil.​
(1:10:29) E a IA é um caminho muito fácil, tanto para tu aprenderes, o que é ótimo para usar para estudar, é fantástico, quanto para tu “matares” o tempo que deverias ficar estudando, lendo, escrevendo. Tu matas esse tempo, deixas a IA lá e vais fazer outra coisa. Então, isso vai impactar no profissional que você vai ser ou no profissional que os seus alunos vão ser.​
(1:10:58) E aí tem um estudo que a gente não vai entrar nele hoje, que foi um estudo feito sobre o futuro do trabalho em 2025 e a inteligência artificial. Isso a gente vai trazer futuramente. Ele é muito interessante. Já que é o futuro do trabalho, a gente vai trazê-lo futuramente. Que horror.​
(1:11:23) E aí… O Ethan Mollick, que nós já citamos aqui, eu já recomendei o livro “Co-inteligência”. E recomendo de novo, do Ethan Mollick, um livro que custa uns 40 e poucos reais, eu acho. Estou colocando o link ali. Ele já coloca essa situação, ele chama a atenção para o fato de que a IA vai subir a barra de entrada, vai subir a barra dos trabalhos das vagas júnior. Porque a IA vai fazer muito bem sob a orientação de quem já tem muita experiência e, ao mesmo tempo, quem está chegando com uma formação​
(1:12:02) ruim no ensino médio, na faculdade, já sendo tudo “torto” pela IA, vai apanhar justamente dessa IA que tanto o “ajudou” no ensino médio, o prejudicou ali no ensino médio e na graduação pelo mau uso que ele fez da IA ou pela falta de orientação, e vai ainda dar-lhe um “toco” quando ele for entrar no mercado de trabalho, essa mesma IA. Então, a gente deve usar, a gente deve aprender, entender como funciona e saber como utilizar de forma adequada. É essa a mensagem final que eu deixo, Guilherme, de minha parte.​
(1:12:45) pelo menos. É, e o Segurança Legal tem essa característica de falar com a academia, falar com os estudantes na academia, falar com o público em geral, com interessados. A gente tem pessoas de outras áreas aqui que, sei lá, a gente já teve alunos aqui da física que eventualmente vêm aqui nos estudar também. Mas a gente também quer e está sempre falando com o mercado. É claro que, se a gente deveria ter falado isso lá no início, mas se você chegou até aqui​
(1:13:22) sem querer, isso tem tudo a ver com como a IA vai se desenvolver no mercado e nas organizações. Porque falar, por exemplo, não só da questão do futuro do trabalho, que acabou não entrando, mas quando a gente fala sobre a questão do comportamento desonesto, isso está no cerne da preocupação de qualquer organização, de qualquer empresa. A empresa não quer comportamentos desonestos.​
(1:13:50) Para lembrar só um caso recente, falamos, eu acho que falei também no outro episódio que eu estava sozinho, que lá na Deloitte teve um estudo inteiro feito para o governo da Austrália que um pesquisador foi pegar, começou a escrutinar e ver o estudo e viu que tinha 20 e poucas fontes citadas que não existiam, livro que não existia, o autor existia, mas nunca tinha escrito aquilo. Então, a Deloitte devolveu dinheiro para o governo da Austrália. Claro, aqui nós temos aquela situação, é uma dessas big four aí, então o risco para ela é​
(1:14:26) muitíssimo menor. Mas saiba que você, empresário, também pode se beneficiar de tudo isso que a gente falou aqui. Poxa, um dos livros indicados aqui, vai ficar grande esses show notes, é da Bolden, “Inteligência Artificial: Uma brevíssima introdução”.​
(1:14:54) Poxa, você é empresário, você é líder de equipe e tal, vai se beneficiar desse tipo de leitura aqui, por exemplo. E de tantas outras que a gente colocou aqui. Então, não é só uma questão de educação e criatividade somente para a área da educação. O empresário consegue se beneficiar, e a empresária também consegue se beneficiar, disso que a gente trouxe aqui. Então eu espero que tenhamos conseguido atingir o nosso intento aqui de contribuir também um pouquinho nesse debate da IA no mundo atual. Espero.​
(1:15:27) Tá bom. Então está bueno. Vamos lá então. Agradecemos a todos aqueles e aquelas que nos acompanharam até aqui e nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Até a próxima.

See all episodes

Never lose your place, on any device

Create a free account to sync, back up, and get personal recommendations.