當伊薩卡學院的戰略傳播學教授戴安娜-蓋斯基(DianeGayeski)收到學生的作文時,她會通過ChatGPT運行其中的一部分,請人工智能工具進行點評,並提出如何改進作品的建議。她告訴美國有線電視新聞網(CNN):"看待人工智能評分的最佳方式是將其視為助教或助研,他們可能會進行第一遍評分......而人工智能在這方面做得相當不錯。"
她會向學生展示 ChatGPT 的反饋,以及該工具是如何改寫他們的作文的。她說:"我也會分享我對他們介紹的看法,然後我們一起討論。"蓋斯基要求她班上的 15 名學生也這樣做:通過 ChatGPT 運行他們的草稿,可以發現哪裡可以改進。
人工智能的出現正在重塑教育,它帶來實實在在的好處,比如將一些任務自動化,從而騰出時間進行更個性化的教學,但同時也帶來一些巨大的隱患,從圍繞準確性和剽竊的問題到維護誠信的問題。
教師和學生都在使用新技術。由學術剽竊檢測平臺 Turnitin 贊助的戰略咨詢公司 Tyton Partners 的一份報告發現,2023 年秋季,半數大學生使用人工智能工具。與此同時,雖然使用人工智能的教師人數較少,但2023年秋季,使用人工智能的教師比例從2023年春季的9%增至22%。
教師們正在求助於人工智能工具和平臺,如 ChatGPT、Writable、Grammarly 和 EssayGrader 等,來幫助他們批改試卷、撰寫反饋、制定教學計劃和佈置作業。他們還利用這些新興工具創建測驗、投票、視頻和互動,以"提高課堂預期"。
另一方面,學生們則依賴於 ChatGPT 和 Microsoft CoPilot 等工具,這些工具內置於 Word、PowerPoint 和其他產品中。
不過,雖然一些學校已經制定學生可以或不可以在學校作業中使用人工智能的政策,但許多學校並沒有為教師制定指導方針。使用人工智能撰寫反饋或批改作業的做法也會引發道德方面的考慮。而已經在學費上花費數十萬美元的傢長和學生可能會懷疑,在大學裡無休止地使用人工智能生成和人工智能評分內容的反饋循環是否值得花費時間和金錢。
蓋斯基說:"如果教師隻用它來評分,而學生隻用它來制作最終產品,那麼它就不會起作用。"
弗吉尼亞大學(University of Virginia)商業倫理教授多蘿西-萊德納(Dorothy Leidner)認為,教師如何使用人工智能取決於很多因素,尤其是在評分時。她認為如果大班測試的材料主要是陳述性知識,因此有明確的對錯,那麼教師使用人工智能評分"甚至可能優於人類評分",人工智能可以讓教師更快、更一致地批改試卷,避免疲勞或厭煩。
萊斯利-雷恩教她的學生如何更好地使用 ChatGPT,但她對一些教育工作者如何使用 ChatGPT 給論文打分表示不滿。
但萊德納指出,當涉及到小班教學或答案不那麼明確的作業時,評分應保持個性化,這樣教師才能提供更具體的反饋,解學生的作業,從而解學生在一段時間內的進步。老師應該負責評分,但也可以讓人工智能承擔一些責任。
她建議教師使用人工智能來查看某些指標,如結構、語言使用和語法,並根據這些數據給出一個數字分數。但是,教師應該自己對學生的作品進行評分,以考察其新穎性、創造性和見解深度。
萊斯利-萊恩(Leslie Layne)在弗吉尼亞州林奇堡大學的寫作工作坊中教授 ChatGPT 最佳實踐,她說,她看到教師的優勢,但也看到缺點。
她說:"使用並非真正來自我的反饋意見似乎有點破壞這種關系。"她還認為,將學生的作品上傳到 ChatGPT 是一個"巨大的道德考量",有可能侵犯他們的知識產權。像 ChatGPT 這樣的人工智能工具會利用這些作品來訓練它們的算法,從說話模式到如何造句,再到事實和數字無所不包。
倫理學教授萊德納對此表示贊同,他說博士論文和碩士論文尤其應該避免這種情況,因為學生可能希望發表作品。她說:"在沒有事先告知學生的情況下將材料上傳到人工智能中是不對的。也許還需要征得學生的同意"。
一些教師正在使用名為 Writable 的軟件,該軟件使用 ChatGPT 幫助批改論文,但采用"標記化"技術,因此論文不包含任何個人信息,也不會直接與系統共享。
該平臺最近被教育公司 Houghton Mifflin Harcourt 收購。
其他教育工作者正在使用Turnitin等平臺,這些平臺擁有剽竊檢測工具,幫助教師識別作業是否由 ChatGPT 和其他人工智能撰寫。但這類檢測工具遠非萬無一失;OpenAI 去年關閉自己的人工智能檢測工具,因為該公司稱其"準確率很低"。
一些學校正在積極制定針對教師和學生的政策。約翰-霍普金斯大學教育研究與改革中心(CRRE)的助理研究員艾倫-裡德(Alan Reid)說,他最近花時間與K-12教育工作者一起工作,這些教育工作者使用GPT工具在成績單上創建季度末個性化評語。
但與萊恩一樣,他也承認該技術撰寫有見地的反饋意見的能力仍然"有限"。他目前是所在學院一個委員會的成員,該委員會正在為教職員工制定一項人工智能政策;討論正在進行中,不僅是關於教師如何在課堂上使用人工智能,還包括一般教育工作者如何使用人工智能。
他承認,學校正在就使用生成式人工智能工具創建晉升和終身教職檔案、績效考核和職位發佈等內容進行對話"。
林奇堡大學(University of Lynchburg)哲學副教授尼古拉斯-弗蘭克(Nicolas Frank)說,大學和教授在政策方面需要保持一致,但也需要保持謹慎。他說:"在現階段制定有關人工智能的政策非常危險。"他擔心,現在解人工智能將如何融入日常生活還為時過早。他還擔心,一些不在課堂上授課的管理者制定的政策可能會忽略教學中的細微差別。"這可能會造成將人工智能用於評分和教學的問題過於簡單化的危險,過度簡化就是制定糟糕政策的方式"。
"首先,教育工作者可以識別人工智能的明顯濫用,並開始圍繞這些濫用制定政策。"萊德納表示,"大學可以提供非常高水平的指導,比如將透明度作為優先事項--這樣學生就有權知道人工智能何時被用於給他們的作業打分--並確定哪些類型的信息絕不能上傳到人工智能中,也不能向人工智能詢問。大學也必須持開放態度,"隨著技術和用途的發展,定期進行重新評估"。