AIの「不正行為」は教授らが想像していたよりも困惑している
ホームページホームページ > ブログ > AIの「不正行為」は教授らが想像していたよりも困惑している

AIの「不正行為」は教授らが想像していたよりも困惑している

May 24, 2023

キャンパス内では軍拡競争があり、教授たちは負け続けている。

この記事を聞く

00:00

12:19

ハークに関するストーリーをもっと聞く

この記事は、月曜日から金曜日まで、編集者が The Atlantic から 1 つの必読の記事を推奨するニュースレター、今日読むべき 1 つの記事で紹介されました。 ここから登録してください。

100パーセントAI。 ソフトウェアは学生の論文についてそう結論づけた。 私が指導する学術プログラムの教授の 1 人がこの発見に気づき、それをどうすればよいか私に尋ねました。 次に、別の学生は、その学生による別の論文で同じ結果 (100% AI) を見て、「これは何を意味するのだろうか?」と疑問に思いました。 知りませんでした。 まだわかりません。

この問題は、学生が AI を使用したことを確実に知ることができるかどうか、レポート作成に AI を「使用する」とはどういう意味なのか、その使用がどのような場合に不正行為に該当するのかなど、さらに多くの問題に細分化されます。 学生の論文にフラグを立てたソフトウェアも多層構造になっていました。私たちのコースウェア システムである Canvas は、最近新しい AI 検出アルゴリズムをインストールした人気の盗作検出サービスである Turnitin を実行していました。 不正行為の証拠とされるものは、教育技術のブラックボックスの入れ子人形から出てきたものだった。

これは、ChatGPT の最初の学年度の終わりの大学生活です。非難と混乱の渦です。 過去数週間、私はAIの相次ぐ「不正行為」に初めて直面している数十人の教育者や学生と話をした。 彼らの話は私を動揺させました。 キャンパスからの報告は、教育における AI の合法的な使用と不謹慎な使用の区別がつかない可能性があり、不正行為者を特定することは、ましてや不正行為者の責任を追及することはほぼ不可能であることを示唆しています。

かつて、学生はクラスメートに試験を共有したり、レポートを渡したりしていました。 その後、インターネットを利用して宿題をアウトソーシングし始めました。 EssayShark などのオンライン ビジネス (同社は「研究と参考目的のみ」で定期レポートを販売していると主張しています) がそのプロセスを専門化しています。 現在では、生徒が Chegg などの「個別指導」サービスから課題の解答を購入できるようになりました。これを子供たちは「チェッギング」と呼んでいます。 しかし、昨年の秋に AI チャットボットが公開されたとき、これらの過去の不正行為の手法はすべて時代遅れに見えました。 Chegg の CEO は、今月の決算会見で「(ChatGPT が)当社の新規顧客の増加率に影響を与えていると現在考えています」と認めた。 それ以来、同社は市場価値を約10億ドル失った。

他の企業も同様の混乱から恩恵を受ける可能性がある。 Turnitin は 2018 年までに、教授による不正行為の探知を支援するためにすでに年間 1 億ドル以上の収益を得ていました。 そのソフトウェアは、学生が課題を提出するために使用するコースウェアに組み込まれており、学生の提出物を既存の資料 (Turnitin が以前に使用した他の学生のレポートを含む) のデータベースと比較し、コピーされた可能性のある資料にフラグを立てます。 世界中の15,000の教育機関にサービスを提供していると主張する同社は、2019年に17億5,000万ドルで買収された。先月、同社はAI検出アドインを公開した(教師がオプトアウトする方法はなかった)。 チャットボット自体と同様に、AI チャットボット対策が主流になりつつあります。

現在、最初のチャットボットの春が終わりに近づいている中、Turnitin の新しいソフトウェアは肯定的な識別情報を大量に提供しています。この論文は「18% AI」でした。 それは「100%AI」。 しかし、これらの数字は実際には何を意味するのでしょうか? 驚くべきことに、とんでもないことに、それを確実に言うのは非常に難しい。 私が聞いた「100% AI」の各ケースでは、学生たちは ChatGPT やその他の AI ツールにすべての作業を任せていないと主張しました。

しかし同社によれば、この指定は、エッセイのすべてがコンピューターで生成されたものであること、さらにはこの判断が 98 パーセントの確実性で行われたことを確かに示唆しているという。 Turnitin の広報担当者は電子メールで、文法チェッカーや自動翻訳機能を含む「アルゴリズムや他のコンピューター対応システムを使用する別のツールで作成されたテキスト」は誤検知を引き起こす可能性があり、一部の「本物の」文章は AI に似ている可能性があることを認めた。 -生成された文章。 「非常に予想通りに文章を書く人もいます」と彼女は私に言いました。 分析には 98% の確実性があるという同社の主張には、これらすべての注意事項が考慮されているのでしょうか?

Turnitin はその結果から不正行為に関する結論を導き出すことを否定しているため、おそらくそれは問題ではありません。 「これは教育者が追加の見直しや生徒との話し合いが正当であるかどうかを判断するのに役立つことを目的とした数値にすぎない」と広報担当者は述べた。 「教えることは人間の仕事です。」 同社は、ソフトウェアが誤検知を引き起こす「小さな」リスクに直面する人間のためのガイドを用意している。 当然のことながら、さらに多くの Turnitin リソース (AI 誤用ルーブリックと AI 誤用チェックリストが利用可能) を使用し、最初に行うことよりも多くの作業を行うことが推奨されています。

読む: ChatGPT はさらに多くの作業を全員に押し付けようとしています

言い換えれば、私のプログラムに参加し、作品に「100% AI」のフラグが立てられた学生は、少量の AI か大量の AI、あるいはその中間の何かを使用した可能性があります。 より深い質問、正確には彼が AI をどのように使用したか、そしてその使用が間違っていたかどうかについては、私のような教師は、これまでと同様に自分たちで解決します。

おそらく、AI を 100% 活用して、自分自身の努力なしで課題を完了する学生もいるでしょう。 しかし、多くの人は ChatGPT やその他のツールを使ってアイデアを生み出したり、行き詰まったときに助けたり、難しい段落を言い換えたり、文法をチェックしたりしています。

ある行動がどこで別の行動に変わるかは、必ずしも明らかではありません。 ノースジョージア大学の英語教授マシュー・ボーディ氏は、ある学生の話に、あまりにも無関心で、時々パジャマのまま授業に出席していたという。 その学生が今春、いつになく巧みなエッセイを提出したとき、Boedy 氏はチャットボットが関与していると考え、OpenAI の検証ツールでもそれが確認されました。 この学生は、どうやって始めればよいのか分からなかったことを認めたので、ChatGPT に紹介文を書いてから、情報源を推奨するよう依頼しました。 AI の不正行為に関して頼るべき確固たる方針がなかったので、Boedy 氏はその生徒と直接教材について話し合い、その会話に基づいて採点を行いました。

私が教えているセントルイスのワシントン大学のコンピューターサイエンスの学生は、パンデミック初期に完全に開いた本の課題を与えることから、今年になって「AI以外なら何でも使える」という態度に突然変わったことに、ある種の皮肉を感じたという。 (生徒たちが AI ツールの使用について率直に話せるようにするため、生徒の名前は伏せています。) ティーチングアシスタントとしても働いているこの生徒は、CS で割り当てられるほぼすべての技術的な演習をコンピューターが解決するのに役立つことを身を持って知っています。コースや概念的なコースもいくつかあります。 しかし、このテクノロジーを利用することは、「Chegg などにお金を払うよりも、道徳的に破綻していると感じにくい」と彼は言う。 チャットボットを利用する学生は、自分自身のために何らかの作業を行っており、将来の生き方を学んでいます。

私が話を聞いた別の学生は、ポモナ大学で政治を学んでいますが、自分のアイデアをプレッシャーテストする方法として AI を使用しています。 中東の植民地主義に関する研究論文を課せられたこの学生は、論文を作成し、そのアイデアについてどう思うかを ChatGPT に尋ねました。 「それは偽物だと言われました」と彼は言った。 「その後、私はそれについて議論を続けました。その過程で、ChatGPT は私の論文に対していくつかの深刻な反論を提起しました。私はそれを論文の中で検討し続けました。」 学生は、情報源を推奨するためにボットも使用します。 「私は ChatGPT を同僚と興味のある聴衆の組み合わせのように扱います」と彼は言いました。

読む: 大学のエッセイは死んだ

ポモナの学生の AI の使用法は賢明であり、完全に常識を超えているように見えます。 しかし、コンピュータ生成言語を少し多用しすぎると、Turnitin は依然として彼の作品に本物でないとしてフラグを立てる可能性があります。 教授は、学生が微妙な方法で ChatGPT を使用しているのか、それとも厚かましい不正行為を行っているのかを実際には知ることができません。 問題ありません。学生と相互信頼関係を築き、この問題について率直に話し合えばよい、と言うかもしれません。 一見すると良いアイデアですが、AI は教員と学生の利益を二分する危険性があります。 「AIは非常に誘惑的であるという点で危険です」と、ペンシルベニア州グリーンズバーグにあるシートンヒル大学のデニス・ジャーズ教授は私に語った。 授業に熱心に取り組んでいない生徒の場合、結果は良いものである必要さえありません。十分に良く、すぐに得られれば十分です。 「AI のおかげで、平凡な仕事を量産することがはるかに簡単になりました。」

教員らはすでに、課題の長期的なメリットを学生に理解してもらうことに頭を悩ませている。 彼らの任務はますます困難になるばかりです。 「完全に士気が下がってしまった」とフロリダ州の英語教師はAI不正行為について私に語った。 「昨年9月には自分の仕事が大好きだったが、4月には完全に仕事から離れる決心をした。」 (仕事関連の影響から彼を守るため、私はこの講師の名前や雇用主を印刷しません。) 彼の課題は、論文執筆、文献目録、概要、エッセイなどの典型的な作文です。 しかし、教師は AI が教師と生徒の間で無関係な軍拡競争を始めたと感じています。 「ChatGPTのようなツールを使えば、学生たちはそのようなスキルの開発に気を配る必要がないと考えるでしょう」と彼は言う。 前学期に ChatGPT を使用して課題を完了したことを生徒が認めた後 (1 人の生徒の場合はすべての課題)、教師は生徒が読んでいない可能性のある自動化された課題の採点になぜ時間を無駄にしているのかと疑問に思いました。 その無意味感が彼の教育プロセスに影響を及ぼした。 「もう打ちのめされそうになりました。私は教えることが大好きになり、教室で過ごす時間も大好きでしたが、ChatGPT を使うと、すべてが無意味に感じられます。」

彼が説明する喪失は、学問の誠実さが守ることができるものよりも深く、実存的なものであり、それはおそらく朽ち果てているかもしれないが、生徒とその教師の間の特定のあり方である。 「AIはすでに教室を、私が認識できないものに変えてしまった」と彼は私に語った。 この見方では、AI は未来の前兆ではなく、資金繰りの破綻、銃による暴力、国家の行き過ぎ、経済の衰退、資格主義などによって、すでに失われかけていたこの職業における最後の藁である。 新しいテクノロジーがその厳しい海岸に到着し、学校の勉強は教育や学習のためではなく、機械のクランクを回すために行われ、価値のないものに感じられます。

この先生は教育を辞めた後、何をする予定なのでしょうか、そして尋ねてみます。 しかし、私は答えを知っているはずでした。なぜなら、他に何があるかというと、彼はソフトウェアを設計するつもりだからです。

AI 時代の教育に関する共通のセリフ: AI は教師に適応を強いることになります。 アリゾナ州立大学の心理学教授アテナ・アクティピスは、この機会を利用してクラス全体を再構築し、宿題よりもディスカッションや学生が決めたプロジェクトを優先した。 「生徒たちは、他のクラスでは感じられなかったような、このクラスが本当に人間味を感じさせてくれたと言いました」と彼女は私に語った。

しかし多くの学生にとって、大学は論文を書くためだけの場所ではなく、手抜きをすることで別の人間性を感じることができるのです。 Turnitin の「100% AI」フラグを立てた論文を提出した私のプログラムの学生は、文章を文法チェック ソフトウェアで実行し、特定の行を改善するよう ChatGPT に依頼すると私に言いました。 彼にとっては品質よりも効率の方が重要だったようです。 この物語の AI について何か感想を述べたいかと尋ねると、「バスケットボールをしたいときもあるし、運動をしたいときもある」と彼は言いました。 とんでもないことのように聞こえるかもしれません。大学は学ぶためにあるのであり、それは課題をこなすことを意味します。 しかし、ストレス要因、コスト、その他の外部要因のミルクシェイクにより、大学キャンパスではメンタルヘルスの危機が生じています。 この学生によれば、AI は、他のほとんどの場合にそのストレスを軽減するのに役立っているそうです。

読む: 推薦状の終わり

同様のプレッシャーが教師にもかかる可能性があります。 教員もある意味、学生と同じようにチャットボットの力に誘惑されており、イライラしたり、専門的な目標から気を紛らわせたりする仕事を軽減したいと考えています。 (先月指摘したように、従来の推薦状も大学の作文と同じくらいAIの脅威にさらされている可能性がある。)それでも教員らは学生が不正行為をしているのではないかと懸念しており、板挟みになっていることにイライラしている。 オランダのティルブルフ大学で文化研究を教えているジュリアン・ハンナ氏は、AIのより高度な利用は主にすでに成功する見込みのある学生に利益をもたらし、恵まれない学生をさらに危険にさらすと考えている。 「優秀な生徒はそれを必要としないか、捕まることを心配していないか、あるいはその両方だと思います。」 他の人たちは以前よりも学ぶリスクが減っている、と彼は言う。 考慮すべきもう 1 つの要素: 英語を第二言語として話す生徒は、文法チェック ソフトウェアに依存するか、ChatGPT で文レベルの表現を調整する傾向がある可能性があります。 もしそうなら、彼らは不釣り合いに詐欺師として選ばれることになるだろう。

いずれにせよ、軍拡競争は今後も続くだろう。 学生はAIを使いすぎる誘惑に駆られ、大学はそれを阻止しようとするだろう。 教授は、AI を活用したある形態の研究を受け入れ、その他の研究を非合法化することを選択できますが、その選択は、与えられたソフトウェアによって決まります。 テクノロジー自体は、公式の政策や深い反省よりも強力になるでしょう。

大学も適応に苦戦するだろう。 学術的誠実性に関するほとんどの理論は、機械ではなく人間の業績を評価することに依存しています。 つまり、昔ながらの名誉規定には控えめなアップデートが加えられ、不正行為の疑いのある者を調査する委員会は、新しい AI 検出の「証拠」の謎を考慮する必要があることになる。 そして、すべてが再び変わります。 新しいシステムが導入されるまでに、テクノロジーとその使用習慣の両方が変化している可能性があります。 ChatGPT はわずか 6 か月しか存在しなかったことを思い出してください。

オンライン学習を考慮した場合と同様に、AI を考慮して課題を再考することは正当化されるかもしれません。 しかし、そうすることは教員にとっても学生にとっても疲弊することになります。 誰も追いつくことはできないでしょうが、それでも誰もが追いつくしかありません。 これらすべての地殻変動とその緊急対応の隙間のどこかで、おそらく教師は教える方法、生徒は学ぶ方法をまだ見つけるでしょう。