Notícias

A epidemia de fraude em exames de IA: como milhares de estudantes usam inteligência artificial para fazer testes para eles… e eles são quase impossíveis de serem pegos


Harry sabe algo que seus professores não sabem. Ele pode concluir seu curso de História sem fazer nenhum trabalho, navegando por três anos em sua universidade Russell Group sem nenhuma revisão de madrugada, sem crises de redação, sem estresse, mas – é claro – sem nenhum aprendizado real também.

Ele usa inteligência artificial (IA).

É fácil, diz o aluno do segundo ano. 'Eu divido um prêmio Bate-papoGPT pagamento com quatro amigos – como dividir as contas de aquecimento do mês ou uma Netflix senha. A modesta taxa de £ 16 para a versão 'aprimorada' do software de IA 'pode escrever ensaios inteiros em questão de segundos'.

A epidemia de fraude em exames de IA: como milhares de estudantes usam inteligência artificial para fazer testes para eles… e eles são quase impossíveis de serem pegos

Uma acadêmica de uma universidade importante disse ao Mail que a trapaça com IA é galopante em toda a sua instituição, mas é quase impossível provar

Harry disse ao Mail: “Ele apresenta argumentos que eu não poderia ter imaginado – é por isso que é tão útil.”

É um passo mais perto de um diploma de primeira classe. 'Eu até usei IA para escrever minhas redações de exames neste verão', ele admite, 'Eu apenas dei a ela a pergunta e disse para ela responder em um “estilo acadêmico”.'

Harry obteve uma nota alta de 2:1 em seus exames de fim de ano, tendo apenas visto a biblioteca a caminho do pub.

“Estou muito orgulhoso”, ele se gaba. “No final do dia, todo mundo está fazendo isso – então por que eu não deveria?”

Ele não está errado. Dezenas de milhares de estudantes em toda a Grã-Bretanha estão usando IA para escrever suas redações e – pior ainda – fazer seus exames para eles. De acordo com a pesquisa obtido por meio de uma solicitação de Liberdade de Informação pela empresa de IA AIPRMmais de 80 por cento das universidades do Reino Unido investigaram alunos por trapacearem com IA nos últimos dois anos.

O fenômeno se tornou tão disseminado que podemos estar à beira de uma grande crise acadêmica. E é um problema que está fadado a crescer com a admissão de cerca de 300.000 novos alunos neste próximo ano acadêmico, muitos dos quais estarão ansiosamente abrindo seus resultados do A-level esta manhã.

Durante a pandemia, os estudantes universitários foram transferidos para o “aprendizado remoto” e concluíram os exames em casa, em seus computadores. Eu era um estudante de graduação na época e fazia meus exames no meu quarto, na mesa da cozinha, em bibliotecas quando o bloqueio permitia e – durante os agora padrões “testes de 24 horas”, que dão a você um dia e uma noite inteiros para concluí-los – até mesmo na cama. Tínhamos permissão para usar o Google e consultar nossas anotações.

Quando terminei minha graduação no ano passado, eu não fazia um exame formal desde meus GCSEs em 2018. Os músculos das minhas mãos provavelmente não suportariam os rigores de três horas na sala de exames agora.

Embora algumas instituições como Cambridge, onde estudei, tenham retornado em grande parte aos exames presenciais após a Covid, muitas não o fizeram em meio a medidas de corte de custos, falta de capacitação e, claro, relutância entre alunos e tutores.

Alguns alunos dividem uma assinatura premium do ChatGPT com amigos e usam isso para escrever suas redações

Alguns alunos dividem uma assinatura premium do ChatGPT com amigos e usam isso para escrever suas redações

Considerando o quanto os exames em casa são mais fáceis, isso não é nenhuma surpresa. Fazer exames com a ajuda de livros e da internet é claramente muito menos desafiador do que tentar sem eles – enquanto os tutores não precisam mais vigiar.

Na minha universidade, alguns alunos ocasionalmente me revelaram que estavam usando IA para anotações e redações, embora eu nunca tenha ouvido falar de alguém que tenha obtido o software para fazer suas provas para eles, nem eu mesmo o tenha usado. Mas desde que me formei, ouvi falar de muitos alunos que admitem livremente usar IA para trapacear em trabalhos de curso avaliados.

Anna, atualmente no segundo ano de um curso de Direito de três anos em uma universidade do Russell Group, diz que usou o ChatGPT para vários módulos de exames no ano passado.

“Ao inserir jurisprudência e análise relevantes no bot antes do meu exame, obtive respostas específicas para o meu material do curso”, ela diz. Em módulos em que Anna usou o ChatGPT como um “segundo cérebro”, ela obteve um Primeiro.

“Ao contrário de copiar as anotações de outra pessoa ou colar da internet, as palavras são originais, então não parece plágio para os examinadores”, diz ela.

Outra aluna, Grace, a caminho de obter um diploma de primeira classe em Filosofia numa prestigiada universidade de Londres, disse: “Escrevi ensaios de exames inteiros no ChatGPT – apenas solicitando ao software uma pergunta. Então combinei isso com uma segunda ferramenta de IA chamada Quill Bot, que reformula o texto para que o plágio seja mais difícil de detectar. Não serei pego por nenhuma má conduta, pois o ensaio da IA ​​deve ser alterado o suficiente pelo outro software – pelo menos espero que sim.'

De fato, pegar pessoas trapaceando com IA é incrivelmente difícil. Em setembro passado, um projeto de pesquisa abrangendo 32 cursos em universidades de cinco países descobriu não apenas que 74 por cento dos alunos pretendiam usar IA – mas que o software antiplágio falhou em detectar trapaças em 95 a 98 por cento dos casos.

Em junho, um estudo da Universidade de Reading descobriu que a IA obteve resultados melhores do que 80% dos estudantes universitários e raramente foi detectada.

“Sou mais diligente do que outros alunos”, diz Grace. “Pelo menos leio os parágrafos e me preocupo em fazer algumas mudanças – muitos dos meus amigos nem fazem isso.”

Para descobrir o quão fácil é, eu digito em um bot de IA uma questão de exame de inglês da Universidade de Oxford para o All Souls College: 'Shakespeare era obcecado por dinheiro?' acrescentando 'por favor, escreva uma redação acadêmica de 2.500 palavras'. Trinta segundos depois, uma redação aparece diante de mim.

O texto é abrangente, coerente e consistente – mas é mortalmente chato. Falta qualquer variedade de tom ou senso de 'voz'. O ensaio começa: 'Para entender o envolvimento de Shakespeare com temas financeiros, é crucial considerar o contexto econômico de sua era. O final do século XVI e o início do século XVII foram uma época de transformação econômica significativa na Inglaterra.' Na minha opinião, o bot não tem criatividade para um tópico como esse, mas pode ser mais adequado para assuntos mais baseados em fatos, como Direito, Medicina ou História.

Sim, é isso é fácil. Mas enquanto milhares de estudantes do Reino Unido passaram a confiar no ChatGPT e outros modelos de IA, a principal razão pela qual eles são pegos plagiando é por causa do hábito da tecnologia de fazer as coisas erradas – conhecido como 'alucinação'. Muitos bots de IA frequentemente parecem incapazes de distinguir entre fato e ficção, por exemplo, inventando casos e citações de leis, e inventando títulos de livros e números de páginas.

Em Cambridge no ano passado, quando estudantes de direito viram uma resposta de exame do último ano escrita por IA e disseram que ela teria um diploma de terceira classe, um arrepio percorreu a sala. Mas se as universidades esperam que assustar os estudantes do software as impeça, isso não parece estar funcionando.

Para combater essa ameaça, as instituições dependem cada vez mais de software 'antiplágio' – ainda que isso frequentemente não consiga pegar trapaceiros. Pior, ele 'pega' erroneamente pessoas inocentes.

A Open AI (a empresa por trás do ChatGPT) fechou seu 'classificador de IA' ou verificador de plágio, devido 'à sua baixa taxa de precisão'. O Turnitin – outro programa antiplágio usado por 99 por cento das universidades do Reino Unido – afirma que sua alta taxa de precisão é acompanhada por uma probabilidade de menos de um por cento de um falso positivo. Mas vários estudos sugerem que esse não é o caso.

Em maio de 2023, a European Network for Academic Integrity testou várias ferramentas de detecção de IA, incluindo o Turnitin. O estudo concluiu que cada uma delas não era “nem precisa nem confiável”.

Turnitin insiste que o sistema é apenas um guia para possível plágio, em vez de prova. Ele acrescenta que “não faz uma determinação de má conduta… nós fornecemos dados para educadores tomarem uma decisão informada.”

Os exames são frequentemente realizados em casa desde a pandemia, facilitando o uso da IA ​​(foto posada pela modelo)

Os exames são frequentemente realizados em casa desde a pandemia, facilitando o uso da IA ​​(foto posada pela modelo)

Uma acadêmica de uma universidade importante disse ao Mail que a trapaça com IA é comum em sua instituição, mas é quase impossível provar.

Ela revelou que vários alunos foram pegos usando IA, acrescentando que eles foram detectados devido a vários erros ao citar trabalhos acadêmicos incorretos ou inexistentes para apoiar suas respostas em exames.

“Esses foram os únicos que foram detectados”, ela acrescentou. “Então, quem sabe quantos estão usando isso?”

Depois de uma reunião disciplinar, ela disse que eles “foram mandados para casa apenas com diplomas de nível Pass para mostrar pelos três anos de 'estudo'”.

A única maneira de saber com certeza que um aluno não está sendo desonesto com a IA é colocá-lo em uma sala de exames sem acesso à internet — a maneira como os exames são realizados desde tempos imemoriais.

No ano passado, universidades australianas alertaram sobre uma “corrida armamentista” de IA entre alunos e professores, acrescentando que elas poderiam ser forçadas a retornar a esses exames presenciais. Ironicamente, a tecnologia de IA pode ajudar os fiscais em salas de exame detectar trapaça, como demonstrado na China, onde algumas instituições usam câmeras para monitorar alunos fazendo exames de admissão à universidade. Ela capta movimentos suspeitos dos alunos, como abaixar-se para pegar coisas ou virar a cabeça, e envia um alerta ao fiscal.

Aqui na Grã-Bretanha, alguns cursos na Universidade de Glasgow este ano voltaram a ter exames presenciais devido a preocupações com a IA. Outras universidades provavelmente seguirão o exemplo, então aqueles alunos que nunca assistiram a palestras ou leram as notas do professor e apenas digitaram assuntos de redação na IA podem em breve enfrentar um duro acerto de contas.

A menos que algo seja feito, os empregadores poderão em breve enfrentar uma geração de graduados cujo chamado “conhecimento” foi roubado da rede neural muitas vezes imprecisa de uma máquina.

A pergunta que os estudantes devem se fazer é se vale a pena ir para a universidade se você não aprendeu nada com ela e trapaceou para conseguir seus diplomas. Mas se você fizer essa pergunta a eles, eles provavelmente recorrerão ao ChatGPT para obter a resposta.

Todos os nomes nesta peça foram alterados.



Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo