Lorin Koch

ChatGPT na sala de aula:

usos, limitações e experiências de alunos e professores

O mundo da educação entrou no primeiro ano letivo completo, 2023-2024, com a Inteligência Artificial (IA) generativa. Foi no início de 2023, no meio do ano letivo passado, que a introdução do ChatGPT provocou uma onda de apreensão entre os professores. Havia receios excessivos de que essa tecnologia avançada perturbasse o cenário educacional. À medida que avançamos no primeiro ano completo da sua implementação, começamos a ver os potenciais benefícios e a compreender suas potenciais desvantagens. Os educadores continuam a explorar e a compreender melhor as implicações dessa tecnologia inovadora e continuarão a fazê-lo durante algum tempo no futuro.

Apesar dos receios iniciais, a IA generativa mostra-se promissora na ajuda aos educadores em seus trabalhos e na oferta de novas oportunidades aos estudantes. Ao mesmo tempo, as atuais limitações da tecnologia podem causar uma série de consequências inesperadas.

O ChatGPT não é a única fonte de IA generativa. Existem dezenas, senão centenas, de Large Language Models (LLMs - Grandes Modelos de Linguagem) semelhantes executando variações do mesmo processo. Alguns aplicativos notáveis incluem Bard, da Google; Bing Chat, da Microsoft; Socrat.AI e Claude, da Anthropic. O ChatGPT foi o primeiro modelo amplamente conhecido, lançado publicamente em novembro de 2022. Por esse motivo, neste artigo, usarei o ChatGPT como uma generalização para toda IA generativa, mesmo que algumas ferramentas atuem de maneira um pouco diferente.

Os LLMs se infiltram na educação

O ChatGPT foi a implantação de tecnologia pública mais rápida da história. O Facebook levou dois anos para atingir 1 milhão de usuários. O Instagram demorou dois meses e meio. O ChatGPT demorou cinco dias.1 Essa rápida implementação criou tensão nas salas de aula, pois os professores queriam abordar a sua utilização, mas não sabiam como, especialmente tendo em conta os rápidos desenvolvimentos e mudanças. Qualquer pensamento de trazer o assunto à tona era moderado pela possibilidade de que eles pudessem estar revelando o segredo do método de trapaça mais eficiente que já existiu.

Os professores não precisavam se preocupar com isso, seus alunos já sabiam. Os alunos não ignoram o desenvolvimento tecnológico. Eles prestam atenção às notícias, embora geralmente através de vídeos do YouTube ou redes sociais. Um ex-aluno meu, que se formou no ensino médio em 2023, diz que os alunos aprenderam sobre o ChatGPT por meio de memes e postagens no TikTok, e depois de um episódio popular de TV2 no meio do ano letivo. Outro ex-aluno, do final do fundamental II, no ano passado, disse que os vídeos do YouTube discutiam o ChatGPT já em novembro de 2022. Esse aluno foi um dos primeiros a adotar, inscrevendo-se em dezembro e espalhando a palavra para outros alunos em janeiro e fevereiro de 2023.

As primeiras reações incluíram entusiasmo (por parte dos alunos) e horror (por parte dos professores). Os professores estavam preocupados com o fato de o ChatGPT tornar imediatamente a produção de redações obsoleta, já que os alunos poderiam concluir seus trabalhos em segundos com muito pouco esforço. Seria esse o fim da produção de texto? O fim do dever de casa?

Em pouco tempo, quase todos conheciam o ChatGPT. Os alunos da minha escola adventista que estavam confiantes na capacidade de escrever seus próprios pensamentos sentiram-se talvez menos tentados, mas os alunos mais jovens ou menos maduros viram isso como um atalho para evitar tarefas consideradas demoradas, difíceis ou irritantes. Um aluno não se orgulhava de o usar nas tarefas, mas a capacidade de deixar de fazer o trabalho era forte demais para ser ignorada. Esse aluno usou o ChatGPT tanto para ajudar no brainstorming quanto para escrever artigos completos, que precisaram ser editados. Se o objetivo era economizar trabalho, o ChatGPT não funcionou: o tempo gasto na correção dos problemas nos artigos gerados pela IA foi maior do que o tempo que levaria para escrever o artigo.

As possibilidades da IA nas escolas

À medida que a tecnologia se tornou mais conhecida e a sua utilização mais generalizada, alguns professores começaram a passar do horror para o otimismo cauteloso, passando a ver o ChatGPT como mais uma ferramenta na sua caixa de ferramentas educativas. Nathaniel Whittemore, apresentador do podcast The AI Breakdown (O colapso da IA), afirma que educadores e estudantes estão sempre entre os primeiros utilizadores adaptativos das novas tecnologias.3 A tecnologia apresentou esse tipo de possibilidade muitas vezes. Para fazer uma comparação, a calculadora perturbou a forma como as aulas de matemática eram ministradas, mas, após um período de resistência, os professores aprenderam rapidamente a adaptar os seus currículos à nova ferramenta.4

A IA generativa apresenta outro tipo de desafio. Essa tecnologia era totalmente desconhecida pela maioria dos educadores há apenas um ano. No entanto, se os professores puderem estar abertos às oportunidades oferecidas pela IA generativa, esta oferecerá muitos usos benéficos. O Quadro 2 contém uma lista de formas de como a IA generativa pode ser usada na sala de aula, que o autor reuniu a partir de várias fontes e experiências de professores (ver Quadro 2).

Muitas outras ideias podem ser encontradas on-line. Existem listas de ideias gratuitas, como uma lista de mais de 100 ideias criativas no Zenodo.5 Além disso, os pesquisadores estão começando a publicar livros sobre o tema.6 Muitas das ideias na lista do Quadro 2 vieram de Shah ou Skrabut, entre outras fontes. A OpenAI também introduziu um conjunto de postagens de blog, ferramentas de ajuda e perguntas frequentes no início do ano letivo de 2023-2024 para educadores que lidam com IA generativa.7

Que limitações os professores e alunos podem esperar?

Embora a IA generativa pareça fornecer textos impressionantes na maioria das vezes, ela apresenta uma série de deficiências que todos os usuários devem compreender. Os professores precisam saber que o ChatGPT e outros modelos de IA muitas vezes carecem de bom senso, são imprecisos e inventam detalhes. Os alunos também devem estar cientes da tendência da IA para inventar coisas e do fato de ter muito pouca orientação ética. Além disso, atualmente, parece haver acesso limitado a materiais revisados por pares de alta qualidade que existem por trás de acessos pagos a periódicos respeitáveis.8

Os problemas do ChatGPT com bom senso e precisão são resultado do fato de que o modelo não entende realmente palavras ou linguagem.9 O “cérebro” do computador está simplesmente prevendo o que ele pensa que você quer ouvir com base em cálculos matemáticos e probabilidades. O ChatGPT divide letras e palavras em números binários e não tem ideia se suas informações são precisas ou não. Isso cria algumas interações intrigantes, como estas:

Usuário: Quantos Rs tem a palavra “idiossincrasia”?

ChatGPT: Existem três Rs na palavra “idiossincrasia”.

Usuário: Explique sua resposta. Localize todos os Rs.

ChatGPT: Peço desculpas pela resposta incorreta na minha resposta anterior. Na verdade, existem dois Rs na palavra “idiossincrasia”. Aqui está a análise correta: O primeiro R aparece após a letra 'i'. O segundo R aparece após a letra 'o'.

Usuário: Quanto é 6.257 x 962?

ChatGPT: O produto de 6.257 multiplicado por 962 é 6.022.834.

Usuário: Não, não é!

ChatGPT: Peço desculpas pelo erro na minha resposta anterior. Vamos calcular o produto correto de 6.257 multiplicado por 962: 6.257 x 962 = 6.014.134. Portanto, o resultado correto é 6.014.134. Obrigado por apontar o erro.10

(A propósito, a resposta correta é 6.019.234)

Por que ele cometeria um erro tão básico como a quantidade de letras R em uma palavra ou a resposta a um problema de multiplicação que qualquer calculadora acerta? Lembre-se de que os LLMs são treinados em texto on-line. É muito improvável que alguém on-line já tenha perguntado quantas letras R existem na palavra “idiossincrasia”. Eles não precisariam: qualquer pessoa que reconheça letras pode contar os Rs. Da mesma forma, embora seja muito provável que o problema de multiplicação 7x5 esteja em vários sites, o problema acima pode não estar em nenhuma fonte da internet. A IA tem que fazer o melhor para descobrir o que ele “pensa” que você deseja. Ficou bem perto nas duas vezes! Mas nenhuma das respostas é precisa. Nos exemplos acima, aproveita-se muito pouco dos dados de treinamento do ChatGPT.

Isso também ajuda a explicar por que o ChatGPT tende a inventar informações. Os observadores referem-se por vezes a isso como alucinação, mas alguns pesquisadores preferem o termo “confabulação” para evitar a humanização excessiva dos modelos de computador.11 O ChatGPT simplesmente não tem forma de verificar os fatos da sua informação. Como um aluno despreparado fazendo uma apresentação, ele tenta usar o texto que sabe que soa plausivelmente humano, o que às vezes resulta em informações que parecem muito confiantes, mas muito incorretas. Um exemplo proeminente disso foi a história do advogado que usou o ChatGPT para ajudar a se preparar para um caso, e acabou citando seis casos pelo nome, nenhum dos quais realmente existiu 12 (Essa história verdadeira deve ser mencionada a todos os alunos que possam estar tentados a usar IA generativa).

Outro ponto está relacionado ao fato de que o texto gerado pelos LLMs às vezes é prejudicial e negativo. Como o ChatGPT é a soma do material que compõe seus dados de origem, ele pode fornecer informações e conselhos que podem ser tendenciosos ou prejudiciais. Embora os programadores tenham dado aos LLMs o objetivo de serem úteis e apropriados, pense em todos os textos que você viu na internet. Quanto texto tendencioso ou ofensivo está on-line? Isso deve lhe dar uma ideia sobre o que um LLM deve analisar enquanto tenta ser útil aos humanos.

IA e escolas cristãs

As escolas religiosas têm algumas preocupações e oportunidades específicas relacionadas com a utilização de IA generativa. Uma área importante de interesse para os crentes é o fato de que a IA foi criada por humanos. Deus criou os humanos à Sua imagem e nos concedeu uma centelha de criatividade divina, que então usamos para construir tecnologia à nossa imagem. A tecnologia de IA não é a consciência humana, é claro. Mas os programadores querem que a IA responda como um ser humano faria, e isso levanta questões significativas sobre a ética de como queremos que ela se relacione conosco.

Uma dissertação de 2022 discute em profundidade o tema da ética na IA.13 Nesse estudo, o autor entrevistou várias pessoas que trabalham em áreas que fazem a ponte entre fé e tecnologia. Essas entrevistas discutem como a ética desejada e gerada pelos programadores, como eficiência e precisão, difere da ética cristã, como humildade, altruísmo, sacrifício, misericórdia e amor. Vários dos entrevistados discutiram os possíveis benefícios de incluir o amor nos sistemas éticos, em comparação com as tentativas de programar a ética na IA.

As preocupações mencionadas anteriormente, como preconceitos e conteúdos nocivos, estão diretamente relacionadas com a programação ética da IA generativa. Outras considerações éticas importantes levantadas pelos críticos da IA incluem o uso de deepfakes, a capacidade de proteger dados privados e o medo de entregar a tomada de decisões humanas à IA.14 Os entrevistados de Huizinga sugerem que incluir Deus na programação ética da IA poderia aliviar algumas dessas preocupações. Quando a razão da ética se baseia no fato de Deus nos amar primeiro, agimos eticamente como uma forma de elevar os outros em direção a Deus, mas, quando um sistema ético se baseia na eficiência, na precisão e em evitar conteúdos específicos, é provável que não atue de forma a beneficiar verdadeiramente as pessoas. Por mais que possamos pensar na IA como um intelecto humano, é útil lembrar que se trata de uma ferramenta programada de formas que não incluem necessariamente o amor por toda a humanidade.

Como ferramenta, o ChatGPT ainda pode oferecer muitos benefícios, até mesmo especificamente para as necessidades peculiares das pessoas nas escolas cristãs. A IA generativa oferece sugestões de programação excepcionalmente boas para eventos e serviços espirituais. Considere um capelão escolar ocupado que tem uma semana de oração para planejar. O ChatGPT poderia fornecer rapidamente temas coesos, atividades envolventes e questões de reflexão para conectar os cursos dos alunos aos conceitos apresentados nas reuniões. Mas há sempre a preocupação com a precisão. Embora o ChatGPT saiba muito sobre a Bíblia, ele pode não fornecer material que seja teologicamente correto ou preciso em relação ao texto original.15 Esta regra prática para estudantes também se aplica aqui: use IA para ideias, mas faça seu próprio trabalho. Deus nos chama para falar a verdade em amor (Ef 4:15). Os professores e planejadores de eventos espirituais devem se certificar de que as sugestões de IA que utilizam estão de acordo com as suas crenças, tendo em mente as preocupações éticas discutidas acima.

O que o ChatGPT está fazendo?

Quando o ChatGPT surge com algo estranho, e não sabemos por quê, é um exemplo do que é conhecido como “problema de alinhamento”.16 Isso ocorre quando os objetivos da IA não correspondem aos nossos objetivos para ela. Nessas situações, não há literalmente nenhuma maneira de nós, humanos, entendermos por que ela fez o que fez, porque tem que passar por vários trilhões de cálculos para fornecer respostas. Um bom passo para entender por que os LLMs confabulam e introduzem erros é obter alguma compreensão sobre o que os computadores estão realmente fazendo nos bastidores.17

Imagine uma sala de aula em que o professor adota uma abordagem pouco ortodoxa de aprendizagem. Em vez de publicar os objetivos de aprendizagem e as principais aprendizagens, o professor diz aos alunos: “Façam o que vier à mente. Tenho um objetivo para você e avisarei se você estiver chegando perto. Experimente as coisas!”

À medida que os alunos “experimentam as coisas”, o professor continua recusando. Escrever no quadro recebe um sinal negativo. Desenhar uma imagem recebe um sinal negativo. Abrir um livro de ciências é negativo.

Exasperado, um aluno desiste e vai até o canto do Lego, e o professor, surpreendentemente, faz sinal de positivo! Revigorados, os alunos começam a pegar Legos e a colocá-los em diversas configurações. Eventualmente, eles criam um modelo de problema de subtração: 8 legos - 5 legos = 3 legos. Sem nunca serem informados do objetivo, os alunos chegam a uma resposta correta.

Foi assim, em uma escala muito pequena, como o ChatGPT foi treinado. Em vez de programar regras e testes lógicos, foram feitas perguntas ao computador. Se suas respostas fossem boas, os humanos basicamente dariam um sinal positivo. No cenário de sala de aula acima, com as restrições de tempo de um dia letivo, é muito possível que os alunos nunca determinem o objetivo do professor. Mas repita esse processo milhões ou bilhões de vezes e você terá um computador que é bastante bom em responder de uma forma que os humanos entenderão. Essa provavelmente não é a melhor maneira de ensinar uma turma de alunos. O professor sabe que os alunos chegaram a uma resposta correta, mas não sabe realmente o que eles entenderam, se é que entenderam alguma coisa. É basicamente isso que acontece com as respostas dadas pelo ChatGPT.

Tarefas que os LLMs realizam mal

Olhando para todo esse quadro, os professores podem sentir uma sensação de desesperança sobre se podem evitar que o ChatGPT assuma o dever de casa dos alunos. Alguns podem ficar tentados a desistir de ensinar precisão, redação, compreensão básica ou até mesmo pensamento crítico, uma vez que os LLMs podem fazê-lo tão bem e não parecem “se importar” quando falham. Essa seria uma reação compreensível, mas que precisa ser encarada com honestidade.

Os dois professores que entrevistei para este artigo disseram que não acham que o ChatGPT deva substituir as habilidades tradicionais de escrever, organizar e reunir conceitos. Mesmo que a IA generativa consiga realizar bem as tarefas básicas, ainda é importante que os alunos sejam capazes de realizá-las. Um dos professores mencionou que os alunos precisam de habilidades rudimentares para adquirir habilidades de nível superior. Fazer com que a IA execute essas tarefas mais simples pode fazer com que os professores se apressem em adquirir habilidades mais complexas, deixando para trás os alunos que precisam de ajuda com habilidades de nível inferior e criando lacunas na compreensão.18

Refletindo sobre essa ideia, um professor comentou que precisamos evitar pensar em tecnologia do tipo tudo ou nada. Nem todas as habilidades acadêmicas precisam ser desenvolvidas usando a internet, ou mesmo sendo digitadas. As habilidades de pensamento crítico geralmente são mais bem aprendidas em conversas ou por meio de atividades em sala de aula. Além disso, mesmo que o ChatGPT possa escrever um soneto, isso não significa que as pessoas devam parar de escrever sonetos.

Dito isso, ainda é valioso ter uma compreensão das tarefas que o ChatGPT atualmente não consegue realizar ou tem dificuldade em realizar bem. Esta lista é mais útil para professores que estão tentando minimizar a probabilidade de os alunos tentarem usar IA generativa para realizar seus trabalhos de aula.

LLMs são ruins em:

  • Análise de dados específicos de imagens ou vídeos mostrados em aula: LLMs começaram a ser capazes de compreender o que está nas imagens, mas ainda lutam para compreender o significado do material nas imagens e vídeos.
  • Análise que se baseia ou cita discussões em classe. Tarefas que fazem referência ao que aconteceu na aula só podem ser realizadas por pessoas que estiveram presentes.
  • Reações pessoais a específicas fontes citadas: os professores podem pedir aos alunos que respondam e avaliem materiais específicos com a sua própria compreensão. Os LLMs podem “fingir” que aplicam informações à sua “vida”, mas uma conexão com a vida real será muito mais vívida.
  • Temas: como não têm um senso de coesão geral, os LLMs têm dificuldades com uma análise geral e com o uso de uma ilustração menor de um conceito mais amplo. Eles tendem a se repetir, ou mesmo a se contradizer, em passagens mais longas.

Além dos pontos acima, os professores também podem estruturar o horário das aulas para que os alunos concluam as tarefas na escola, e não por conta própria, onde a oportunidade de usar um LLM é maior. Para instrutores que desejam ensinar habilidades importantes de redação, as dicas para usar o tempo de aula incluem:

  • atribua redação em sala de aula;
  • peça aos alunos que façam um brainstorm e pré-escrevam à mão (não é recomendado exigir que os alunos escrevam redações à mão e trechos mais longos.19 Talvez seja necessário fazer adaptações adicionais para alunos com outras necessidades de aprendizagem);
  • divida a escrita em etapas menores que possam ser concluídas em aula;
  • exija a utilização de algumas fontes específicas às quais cada aluno tenha acesso;
  • realize reuniões individuais de redação onde você pede aos alunos que expliquem seu raciocínio.

Pegando o uso do ChatGPT em flagrante

Os dois professores adventistas com quem conversei para este artigo flagraram seus alunos usando o ChatGPT no ano letivo passado. Eles refletiram sobre como foi estranho descobrir isso. Ambos sabiam, numa primeira leitura, que os artigos não tinham sido escritos por alunos. A linguagem não refletia a forma como o tema era discutido nas aulas, e o trabalho não “correspondia” ao que os alunos produziram no início do ano letivo. Além disso, o conteúdo foi descrito como “completo, além do ponto em que a maioria dos alunos pararia de falar sobre algo”, mas ao mesmo tempo vago.

Quando confrontados com as evidências, a maioria dos alunos admitiu imediatamente usar o ChatGPT. Um dos alunos afirmou tê-lo utilizado apenas para editar sua redação e verificar a gramática, embora o professor tenha dúvidas quanto a essa afirmação.

Ambos os professores com quem conversei relataram estar hesitantes em abordar a IA generativa com seus alunos. Quando os professores não usam muito o ChatGPT, eles podem não estar confiantes em tentar informar outras pessoas sobre isso. Um dos professores não sabia nada sobre o ChatGPT antes de pegá-lo em sua sala de aula. Ele sabia que o artigo não havia sido escrito por um aluno, mas não sabia o que era. Passar por um detector de plágio não ajudou, e ele se sentiu confuso.

Você pode usar o ChatGPT para desmascarar o ChatGPT?

Perto do final do ano letivo de 2022-2023, dezenas de empresas começaram a lançar ferramentas projetadas para capturar textos gerados por IA em tarefas. Essas ferramentas, chamadas “classificadores”, pareciam prometer ser a nova versão dos verificadores de plágio. A OpenAI lançou seu próprio classificador em janeiro de 2023, com o aviso de que estava errado na maior parte do tempo.20 Ele conseguia classificar com precisão o texto da IA apenas 26% das vezes, o que, é claro, significava que ele errava 74% e classificava incorretamente texto escrito por humanos como IA 9% das vezes.

A teoria era que os classificadores melhorariam com o tempo e, eventualmente, seriam capazes de dizer com um alto grau de certeza se um ser humano ou um computador havia escrito aquele texto. Isto não provou ser verdade. O texto gerado pela IA é muito mais difícil de ser detectado do que o texto plagiado, que provavelmente foi publicado em outro lugar. O desafio é que o texto gerado pela IA ainda não existe em lugar nenhum, então os classificadores precisam procurar outras características do texto. Para algumas comparações, os computadores são mais previsíveis do que os humanos, geralmente completando frases da mesma forma que os outros, e mais consistentes com o comprimento e a estrutura das frases.

Com essas características, pode parecer possível determinar se o texto é gerado por humanos. Mas, até agora, não são indicadores confiáveis.21 Muitos textos gerados por computador ainda não são sinalizados (falsos negativos), e os textos escritos por humanos são frequentemente sinalizados (falsos positivos). Classificações erradas têm consequências. Reprovar erroneamente os alunos por causa de falsos positivos é injusto, e ter sucesso ao transmitir textos falsos negativos gerados pela IA como se fossem seus é antiético.

Os falsos positivos já causaram transtornos significativos, como quando um professor universitário ameaçou reprovar toda a sua turma por causa do uso do ChatGPT.22 Pior ainda é o fato de que os alunos que estão aprendendo inglês têm maior probabilidade de ter sua escrita sinalizada falsamente como gerada por IA, provavelmente devido à escrita previsível limitada pelo vocabulário.23

O problema de classificação é tão grave que alguns professores podem ficar tentados a perguntar ao ChatGPT se ele escreveu alguma coisa. Respondendo a essa ideia, a OpenAI declarou em seu FAQ do Guia do Professor que perguntar ao ChatGPT se ele escreveu algo irá falhar: “O ChatGPT não tem ‘conhecimento’ de qual conteúdo pode ser gerado por IA ou o que ele gerou. Às vezes, serão compostas respostas a perguntas como ‘você escreveu este [ensaio]?’ ou ‘isso poderia ter sido escrito pela IA?’ Essas respostas são aleatórias e não têm base em fatos.”24

No entanto, a OpenAI oferece algumas sugestões para professores que esperam evitar o problema de os alunos entregarem textos gerados por IA como se fossem seus.25 As sugestões incluem incorporar IA generativa nas aulas, ensinar aos alunos como usá-la de forma ética e responsável e fazer com que os alunos demonstrem seu trabalho durante todo o processo.

Conclusão

A IA generativa tem o potencial de revolucionar a forma como ensinamos e aprendemos. Com a explosão de LLMs como o ChatGPT, estamos vendo um novo mundo de aprendizagem personalizada que pode ajudar alunos e professores. No entanto, é importante lembrar que esses modelos ainda são relativamente novos e imprevisíveis. Suas limitações precisam ser compreendidas à medida que professores (e alunos) as utilizam nas aulas.

À medida que avançamos na integração da IA nas nossas salas de aula, faríamos bem em lembrar as considerações éticas envolvidas. Professores e alunos precisam estar cientes das limitações da IA, incluindo confabulação, informações imprecisas e o potencial de preconceito e conteúdo questionável. Os professores precisam tomar medidas para mitigar esses riscos e educar seus alunos.

Em última análise, o sucesso da IA generativa na educação dependerá de quão bem conseguirmos equilibrar os benefícios com as limitações. Ao trabalharmos em conjunto para desenvolver melhores práticas e diretrizes e partilharmos os nossos sucessos, poderemos garantir que essa tecnologia será utilizada de forma responsável e eficaz.


Este artigo foi revisado por pares.

Lorin Koch

Lorin Koch, EdD, é autor de cursos da Griggs International University, desenvolvedor de cursos e instrução da Adventist Learning Community (ALC) e associado de desenvolvimento de currículo da Pedagogy.Cloud, uma empresa de consultoria educacional. Com 19 anos de experiência na educação adventista, o Dr. Koch trabalhou como professor de ensino médio e secretário na Livingstone Adventist Academy (Salem, Oregon, Estados Unidos) e na Indiana Academy (Cícero, Indiana, Estados Unidos). Ele possui um MAT em Currículo e Instrução pela Walla Walla University (College Place, Washington, Estados Unidos) e um EdD em Estudos Curriculares pela University of South Carolina (Columbia, Carolina do Sul, Estados Unidos). Este artigo surgiu de sua apresentação na Convenção de Educadores da Divisão Norte-Americana, em Phoenix, Arizona, em agosto de 2023, e de seu trabalho de desenvolvimento de curso para ALC.

Citação recomendada:

Lorin Koch, “ChatGPT na sala de aula: usos, limitações e experiências de alunos e professores,” Revista Educação Adventista 85:3 (2023). Disponível em: https://www.journalofadventisteducation.org/pt/2023.85.3.2.

NOTAS E REFERÊNCIAS

  1. Noam Hassenfeld, (Host), “The Black Box: In AI We Trust?” [Audio podcast episode]. In Unexplainable. Vox Media Network (19 jul. 2023). Disponível em: https://pod.link/unexplainable/episode/4517829cfa939b38f5464d865325c24f.
  2. Jez Corden, “The Latest Episode of South Park is About ... ChatGPT,” Windows Central (7 mar. 2023). Disponível em: https://www.windowscentral.com/microsoft/the-latest-episode-of-south-park-is-about-chatgpt.
  3. Nathaniel Whittemore, (Host), “Are Educators Ready for a ChatGPT School Year?” [Audio podcast episode]. In The AI Breakdown. The Breakdown Network (1o set. 2023). Disponível em: https://pod.link/1680633614/episode/dd5a5e33112b0522483800a238c9f00e.
  4. William Pang, “The Common High-School Tool That’s Banned in College,” The Atlantic (22 dez. 2016). Disponível em: https://www.theatlantic.com/education/archive/2016/12/the-conundrum-of-calculators-in-the-classroom/493961/.
  5. Chrissi Nerantzi et al., (eds.) “101 Creative Ideas to Use AI in Education: A Crowdsourced Collection,” Zenodo (2023). Disponível em: https://zenodo.org/record/8224168.
  6. Priten Shah, AI and the Future of Education: Teaching in the Age of Artificial Intelligence (San Francisco: Jossey-Bass, 2023); Stan Skrabut, 80 Ways to Use ChatGPT in the Classroom (Self-Published, 2023).
  7. OpenAI, “Teaching With AI” (31 ago. 2023). Disponível em: https://openai.com/blog/teaching-with-ai.
  8. Sara Guaglione, “Why Protecting Paywalled Content From AI Bots is Difficult Business,” (7 ago. 2023). Disponível em: https://digiday.com/media/why-protecting-paywalled-content-from-ai-bots-is-difficult-business/; Emily Dreibelbis, “‘Browse With Bing’ Disabled on ChatGPT Plus Because It Bypassed Paywalls” (5 jul. 2023). Disponível em: https://www.pcmag.com/news/browse-with-bing-disabled-on-chatgpt-plus-because-it-bypassed-paywalls.
  9. Paul Thagard, “Why Is ChatGPT so Smart and So Stupid?” Psychology Today (23 fev. 2023). Disponível em: https://www.psychologytoday.com/us/blog/hot-thought/202302/why-is-chatgpt-so-smart-and-so-stupid.
  10. Conversas geradas pelo autor, utilizando o modelo GPT 3.5 do ChatGPT.
  11. Benj Edwards, “Why ChatGPT and Bing Chat Are So Good at Making Things Up: A Look Inside the Hallucinating Artificial Minds of the Famous Text Prediction Bots,” Ars Technica (6 abr. 2023). Disponível em: https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to-fix-them/.
  12. Kathryn Armstrong, “ChatGPT: US Lawyer Admits Using AI for Case Research,” BBC News (27 maio 2023). Disponível em: https://www.bbc.com/news/world-us-canada-65735769.
  13. Gretchen Huizinga, “Righteous AI: The Christian Voice in the Ethical AI Conversation” (Dissertation, University of Washington, 2022). Disponível em: https://aiandfaith.org/wp-content/uploads/2022/09/RIGHTEOUS-AI-THE-CHRISTIAN-VOICE-IN-THE-ETHICAL-AI-CONVERSATION.pdf.
  14. Selin Akgun and Christine Greenhow, “Artificial Intelligence in Education: Addressing Ethical Challenges in K-12 Settings,” AI Ethics 2 (2022): 431-440. Disponível em: https://doi.org/10.1007/s43681-021-00096-7.
  15. Jennifer A. Kingston, “Religious Leaders Experiment with ChatGPT Sermons,” Axios (10 mar. 2023). Disponível em: https://www.axios.com/2023/03/10/pastors-chatgpt-sermons-rabbi-minister.
  16. Edd Gent, “What is the AI Alignment Problem and How Can it be Solved?” New Scientist (10 maio 2023). Disponível em: https://www.newscientist.com/article/mg25834382-000-what-is-the-ai-alignment-problem-and-how-can-it-be-solved/.
  17. Samuel R. Bowman, “Eight Things to Know About Large Language Models” (Unpublished manuscript 2023). Disponível em: https://arxiv.org/pdf/2304.00612.pdf.
  18. Shah, AI and the Future of Education: Teaching in the Age of Artificial Intelligence.
  19. Anna Mills and Lauren M. E. Goodlad, “Adapting College Writing for the Age of Large Language Models Such as ChatGPT: Some Next Steps for Educators,” Critical AI (17 jan. 2023, updated April 17). Disponível em: https://criticalai.org/2023/01/17/critical-ai-adapting-college-writing-for-the-age-of-large-language-models-such-as-chatgpt-some-next-steps-for-educators/.
  20. Jan Hendrik Kirchner et al., “New AI Classifier for Indicating AI-written Text,” OpenAI (31 jan. 2023). Disponível em: https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text.
  21. Benj Edwards, “Why AI Detectors Think the US Constitution Was Written by AI,” Ars Technica (14 jul. 2023). Disponível em: https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/.
  22. Pranshu Verma, “A Professor Accused His Class of Using ChatGPT, Putting Diplomas in Jeopardy,” Washington Post (19 maio 2023). Disponível em: https://www.washingtonpost.com/technology/2023/05/18/texas-professor-threatened-fail-class-chatgpt-cheating/.
  23. Weixin Liang et al., “GPT Detectors Are Biased Against Non-native English Writers,” Patterns 4:7 (14 jul. 2023): 100779–100779. Disponível em: https://doi.org/10.1016/j.patter.2023.100779.
  24. Perguntas frequentes para educadores da Central de Ajuda OpenAI, “Posso perguntar ao ChatGPT se ele escreveu algo?” (n.d.): Acesso em: 11 set. 2023. Disponível em: https://help.openai.com/en/articles/8318890-can-i-ask-chatgpt-if-it-wrote-something.
  25. Perguntas frequentes para educadores do Centro de Ajuda do OpenAI (OpenAI Help Center), “Como os educadores podem responder aos alunos que apresentam conteúdo gerado por IA como se fosse seu?” (n.d.): Acesso em: 11 set. 2023. Disponível em: https://help.openai.com/en/articles/8313351-how-can-educators-respond-to-students-presenting-ai-generated-content-as-their-own.