人工知能は大学の授業でより一般的になるため、一部の教授は、研究プロジェクトにそれを使用している利点と短所を検討します。 Galifaxの1人の教授は最近、クラスで大規模なChatGpt言語のモデルなどの人工知能の使用を許可していないというポリシーを発行しました。 大規模な言語を持つモデルは、システムに提出された膨大な量の書面による情報に基づいて、翻訳、履歴書、その他のコンテンツのリクエストに応答できる人工知能のタイプです。 ダルハウス大学で歴史と国際研究を教えているアジェイ・パラスラムは、人工知能は冒頭プロセスを簡素化できるが、重要な情報も除外できる機器であると述べています。 人工知能には偏見があることが知られていますまた、Parasramは、特定の知的言説を強化するレビューされた記事やトップレベルの雑誌にのみ検索結果を制限すると述べています。 「これは、あなたが背景に反して見られるすべてです。フィールドでは、あなたが求めていなかったのは、トレーニングの喜びと興奮の一部です」とCBC Radio Parasramは言いました メインストリートガリファックス 水曜日に。 「そして、私は研究を実施することを学ぶ学生が自分よりも先を行っており、単に正しい答えを探しているのではないかと心配しています。」 Parasramは、学生が研究のために人工知能を使用する場合、これは自分の学習体験のための遅いサービスになると述べました。 彼は、学生が「自分のトレーニングをコントロールする」ことを奨励する方法としてこの規則を受け入れたと述べた。 「私たちは、主に批判的思考のプロセスの大部分を削除するためにテクノロジーを信頼できる場所にまだいないと思います」と彼は言いました。 「私たちは多くのトレーニングの中心で批判的思考を得るために一生懸命に戦ったと感じているので、今それを落とすことはできません。」 オンタリオ大学のコミュニケーションおよびデジタルメディア研究の教授であるシャロン・ラウリセラは、別のアプローチを受け入れました。 彼女は、生徒がクラスで大きな言語を持つモデルを使用するように呼びかけます。 「私は彼らに…これらのツールは楽器ですが、誰かにチェーンソーを与え、それを使用する方法を彼に教えないと、誰かが苦しむでしょうか?」ラウリセラは言った。 「そして、このテクノロジーにも同じことが当てはまります。人々はそれを正しく使用する方法を知っている必要があり、それから安全に使用できます。」 Lauricella氏は、ChatGptなどの大きな言語を持つモデルは、多くの場合、時代遅れまたは誤った情報を持っていることが多いため、生徒に自分が見せない情報と、彼らが望む答えを得るために質問を再考する方法について考えるように教えます。 彼女は、これを使用して、情報を要約したり、アイデアの形成を支援したり、タスクでのテスト文法 – 彼女が研究プロジェクトの本と呼んでいるものをテストすることもできると述べました。 工科大学のオンタリオ大学のコミュニケーションおよびデジタルメディア研究の教授であるSharon Laurisellaは、学生がクラスのChatGptなどの大規模な言語を持つモデルを使用することを奨励していると言います。 […]