人工知能は大学の授業でより一般的になるため、一部の教授は、研究プロジェクトにそれを使用している利点と短所を検討します。
Galifaxの1人の教授は最近、クラスで大規模なChatGpt言語のモデルなどの人工知能の使用を許可していないというポリシーを発行しました。
大規模な言語を持つモデルは、システムに提出された膨大な量の書面による情報に基づいて、翻訳、履歴書、その他のコンテンツのリクエストに応答できる人工知能のタイプです。
ダルハウス大学で歴史と国際研究を教えているアジェイ・パラスラムは、人工知能は冒頭プロセスを簡素化できるが、重要な情報も除外できる機器であると述べています。
人工知能には偏見があることが知られていますまた、Parasramは、特定の知的言説を強化するレビューされた記事やトップレベルの雑誌にのみ検索結果を制限すると述べています。
「これは、あなたが背景に反して見られるすべてです。フィールドでは、あなたが求めていなかったのは、トレーニングの喜びと興奮の一部です」とCBC Radio Parasramは言いました メインストリートガリファックス 水曜日に。
「そして、私は研究を実施することを学ぶ学生が自分よりも先を行っており、単に正しい答えを探しているのではないかと心配しています。」
Parasramは、学生が研究のために人工知能を使用する場合、これは自分の学習体験のための遅いサービスになると述べました。
彼は、学生が「自分のトレーニングをコントロールする」ことを奨励する方法としてこの規則を受け入れたと述べた。
「私たちは、主に批判的思考のプロセスの大部分を削除するためにテクノロジーを信頼できる場所にまだいないと思います」と彼は言いました。
「私たちは多くのトレーニングの中心で批判的思考を得るために一生懸命に戦ったと感じているので、今それを落とすことはできません。」
オンタリオ大学のコミュニケーションおよびデジタルメディア研究の教授であるシャロン・ラウリセラは、別のアプローチを受け入れました。
彼女は、生徒がクラスで大きな言語を持つモデルを使用するように呼びかけます。
「私は彼らに…これらのツールは楽器ですが、誰かにチェーンソーを与え、それを使用する方法を彼に教えないと、誰かが苦しむでしょうか?」ラウリセラは言った。
「そして、このテクノロジーにも同じことが当てはまります。人々はそれを正しく使用する方法を知っている必要があり、それから安全に使用できます。」
Lauricella氏は、ChatGptなどの大きな言語を持つモデルは、多くの場合、時代遅れまたは誤った情報を持っていることが多いため、生徒に自分が見せない情報と、彼らが望む答えを得るために質問を再考する方法について考えるように教えます。
彼女は、これを使用して、情報を要約したり、アイデアの形成を支援したり、タスクでのテスト文法 – 彼女が研究プロジェクトの本と呼んでいるものをテストすることもできると述べました。
しかし、彼女は、大きな言語を持つモデルは信頼できる研究を提供することを意図していないというパラスラムに同意します。批判的思考はまだ必要です。
「これは私たちに時間を節約できますが、主要な研究の観点から見ると、これはすべての学生がやることを学ばなければならない基本的なスキルにすぎません。 [ChatGPT] 能力がないだけだ」と彼女は言った。
Laurisella氏は、生徒は大規模な言語モデルを使用してバックグラウンドリサーチを実施できると述べましたが、自分の作品がユニークで反映されることを望んでいます。
彼女は、生徒が自分の仕事で人工知能を使用している場合、彼らが使用したものを明らかにし、タスクの最後にそれを含める義務があると言いました。
「これは、学生が開示するべきであり、これに関して透明性があるべきであるという基本だと思います」と彼女は言いました。
「したがって、これは非常に重要だと思います。ツールが合理的でなくても、ローンを提供しなければならない敬意を払わなければなりません。」
それにもかかわらず、学生に間違いを犯すことができることを思い出させることが重要であると言いました。
「正しい答えを得るために彼らには非常に多くのプレッシャーがあり、知的発見と喜びのプロセスに十分な機会がありません」と彼は言いました。
「そして、私のクラスの大学については、学生がトレーニングホイールを含める機会として考えています。あなたは知っていますか?間違いを犯してください。そこに行ってプロセスを試してみてください。