国立大学法人名古屋工業大学

文字サイズ
検索

教育・学部・大学院・センター

ホーム > 教育・学部・大学院・センター > 教育における生成AIの利活用について

教育における生成AIの利活用について

名古屋工業大学の教育における生成AIの利活用に関して(通知)

2023年12月20日

学生各位

副学長(学務、入試担当)前田 健一
学長特別補佐(数理・データサイエンス教育推進担当)本谷 秀堅

 生成AIは、既存の文章や画像、音源を利用して、新しい文章や画像、音源を生成する人工知能です。我々利用者が問い掛けると、生成AIは問い掛けに対して回答を出力します。生成AIはもともと教育目的で開発されたものではありませんが、問い掛け方を工夫すると、大学での教育・学習にも利用することができます。例えば、問い掛けた内容に関するレポートを作成したり、英文校閲をしたり、数学の問題に回答したり、作題したりといった事柄に利用可能です。これらのタスクはいずれも、これまでは、それなりに訓練を積んだ人にしかできないと思われていたタスクです。

 生成AIの利活用について,本学では以下のとおり取扱います。

教育・学修における生成AIの利活用に関する指針

 生成AIを単なる流行として軽蔑したり軽視したりすることなく、このあと示す使用上のリスクに気をつけつつ、落ち着いて使ってみてください。その上で、生成AIを過信することなく、自らの教育・学修への使い方を見つけてください。学修の目的は知識の獲得だけではなく、普遍的に通用する考え方や獲得した知識を実社会で活かす能力を身に付けることであるはずです。大学における学修は皆さんが主体的に学ぶことが本質ですから、生成AIを自分の代役として使うのではなく、自分のために使ってください。

 それぞれの科目における学修目標はシラバスに記載されています。成績評価に関わる局面では、各科目の学修目標に照らして相応しくない使い方はしないでください。学修目標に照らして相応しくない使い方をしたことが明らかになった場合には、不正行為とみなされることがあります。例えば、当該科目で学修する学理に対する理解度を問われているときに、与えられた問いを生成AIに入力して出力されたものをそのまま回答とすることなどです。

 各科目で生成AIの利活用について担当教員から指示がある場合には、本学の指針を理解の上、その指示に従ってください。

生成AI利活用のリスク及び留意点

 生成AIを使う際に気をつけるべきリスクには、大きく3点あります。すなわち、生成AIの出力に虚偽や偏見・差別が含まれている可能性のあること、機密情報や個人情報が漏洩する可能性があること、著作権を侵害する可能性のあることです。これらはいずれも、生成AIの登場以前から存在していた倫理的なリスクです。目新しいものではありません。生成AIの進化によって、使用者が無自覚の内にこれら既存のリスクに複数同時にさらされるようになったことが問題です。

 大規模言語モデルを利用するChatGPTなどの生成AIは、論理的な推論により応答文を生成しているわけではありません。また、大規模言語モデルの構築に際して利用された多量の文章には、国や人種などに関する偏見・差別が含まれていた可能性があります。結果として、生成AIの出力には、虚偽や偏見の含まれる可能性があります。応答文の真偽や偏見の有無の判定は、最終的には、利用者である我々がおこなうべきです。そのために必要となる能力を身に着けていく必要があります。

 生成AIに問い掛けた内容は、外部に流出・漏洩する可能性があります。特に、ChatGPTをWebブラウザから利用する場合、学習データとして利用されます。API (アプリケーション・プログラミング・インタフェース)経由で利用する場合は学習データとしては利用されませんが、企業のクラウドにアップロードされることは避けられないので注意が必要です。このことからも,機密情報や個人情報を生成AIに入力することは避けてください。また,他人の著作物の複製やアップロードを行う場合には、原則として著作者の許諾を必要とします。大学を含む教育機関の授業においては、授業の範囲内で著作物を複製したり公衆送信したりすることはできますが、授業の範囲を越えて広く公開するには著作権者の許諾を必要とします。これらのことを、利用に際して知っておいてください。

今後の対応について

 今後生成AIに関わる事例を収集し、学内での情報の共有を図ります。また、倫理的なリスクの更なる具現化を防ぐための対策を、必要に応じて構築していきます。


この情報は学務課が提供しています。

ページトップへ