時間:2023-03-31 18:13:47
序論:好文章的創作是一個不斷探索和完善的過程,我們為您推薦一篇人工智能賦能教育的倫理范例,希望它們能助您一臂之力,提升您的閱讀品質,帶來更深刻的閱讀感受。
以深度學習為代表的人工智能技術在迅速發展的同時,也被廣泛應用于各領域。具有自動寫作功能的語言優化模型ChatGPT驚艷出場,聯結了現實空間與虛擬空間的“元宇宙”數字生活空間橫空出世,成長于數字化環境中的數字土著成為新一代的教育主體。面對這樣的現實,人們不得不重新審視教育與技術之間的關系。在實踐中,人工智能在教育領域的應用越來越廣泛,包括各教育利益相關者及教育管理部門對教育大數據的收集和使用,智能技術在學生的自主學習、教師的線上授課以及智慧課堂的行為識別中起到的輔助作用,等等。從理論上來說,人工智能賦能教育,其本質就是提倡利用網絡技術、信息技術以及智能技術等改善現有教育中技術利用不足的問題。學者們逐漸重視“教育中的人工智能”(artificialintelligenceineducation,AIED)的研究。這一研究領域,主要是指人工智能與教育科學融合所形成的專項領域,其研究目的在于利用人工智能技術揭示學習發生機制、促發高效學習以及促進教育改革發展[1]。這一應用及其過程,被通俗地簡稱為人工智能技術賦能教育。在人工智能技術賦能教育的過程中,由于教育教學方式技術化的變革創新,師生關系與教育環境也一定會發生潛移默化的改變,并帶來人工智能技術環境下新的教育倫理問題。那么,人工智能賦能教育將可能產生哪些倫理風險呢?本文旨在通過探討這一問題構建智慧教育倫理治理新范式,以做到未雨綢繆,防患于未然。
一、人工智能賦能教育的倫理風險
教育領域的技術賦能或將對教育決策、教學應用及教育環境等方面產生影響,從而催生教育變革。人工智能技術在解構現有教育教學生態的同時,也在建構人工智能教育教學技術化的新生態。在技術化的教育新生態中,由于人工智能扮演類人的角色,所以它不僅改變了傳統教育生態中的人際關系,而且也促使教育倫理中關于道德行為的價值判斷標準發生變化。然而,即使作為技術倫理和教育倫理的結合體,人工智能教育倫理仍然應該以“人”為研究的出發點,規約人在人工智能應用過程中的行為[2],這是因為教育的對象仍然是活生生的人,而不是“技術”,更不能為了運用技術而改變“人之為人”的本性。由此,以“教育是培養人之為人的教育活動”作為考察和運思的標準及出發點,人工智能賦能教育將可能在教育技術、師生關系以及教育生態等方面產生倫理風險。
1.關于教育技術的倫理風險
人工智能時代最讓人焦慮的技術問題,就是算法黑箱問題和數據安全問題。先就算法黑箱問題對教育倫理的影響加以考察。眾所周知,現實世界為大量數據所重建,界面、數據、模型是智能算法黑箱的三大形成要素,而對于交互界面內部數據的運作邏輯——算法,人們卻無從知曉,這種算法的不公開不透明就是所謂的黑箱問題[3]。在教育領域中,算法黑箱可能會引發各種算法倫理風險,主要體現在:①算法不公開引致教育主體對智能技術缺乏信任。當教育者和學習者對智能教學系統的分數計算規則、評價理由和預測的依據未知時,他們會質疑智能教學系統的可信度與有效性,這種信任缺失會妨礙教育者、學習者與智能教學系統之間的交互。②算法歧視遮蔽教育的公平性。算法的設計會不可避免地受到算法程序員的主觀影響,其背后是程序開發商等諸多教育利益相關者的觀點制衡,因此受主觀意識左右的算法設計存在“算法歧視”的風險,遮蔽了教育的公平性。③算法設計過濾教育中富含人文價值的因素。算法的設計一般遵循固有的公式,因此在算法運行過程中,很多教育中富含人文價值的因素是無法被精準計算衡量的,這也在一定程度上造成了算法的偏差和偏見,引發新的教育不公平問題。人工智能賦能教育的技術倫理風險還體現在數據倫理風險方面。數據智能本是智能教學系統得以順利運行的基礎。然而旨在優化教學的智能輔助數據技術卻變成了教學管理者對教育主體的監控工具,其結果是教學世界變得冰冷,失去了教學生活的真實感。智能教學系統所記錄的有關教育者和學習者的各種數據信息,大部分是隱私信息,但是此類數據信息一旦保存或者運用不當,就可能產生以下倫理問題:①教育數據安全危機四伏。智能系統的使用者很容易遭遇數據泄露、數據篡改等各種數據安全問題,但是由于作為數據主體的師生對于自身數據的收集和使用缺乏知情權,一旦數據被泄露或未經授權而被修改,就會對數據主體即師生產生不可預測的傷害;②數據管理人員的數據倫理意識薄弱。即使數據管理人員具備基本的數據倫理意識,但是我們并不能排除他們為了牟利而跨越倫理紅線并泄露數據主體個人信息的可能;③智能技術對教學行為的過度量化。如果人工智能技術過度侵蝕教育的人性化生態,那么師生的一切教學行為和學習工作狀態都將會被量化,其導致的結果必然是教育的人性與靈性的喪失。上述兩個方面技術倫理風險的存在,導致人工智能時代教育領域中倫理追責的困境,主要體現在:一是人工智能的道德主體界定的不確定性。目前,學界對于因模仿人的思維和行為而問世的人工智能在教育活動中是否應該承擔道德主體責任看法不一。在現實教育教學實踐中,當智能教育應用出現問題的時候,教育利益相關者會推諉責任,真正可追責的責任主體卻是模糊不清的。二是由智能教育學習系統創建成員構成的復雜性而導致倫理責任不清晰。一般而言,智能教育學習系統創建者包括程序設計員和系統設計師等,但有關各成員倫理責任并沒有得到明晰的界定。因系統開發過程中每一個環節都存在著各種利害抉擇,而這些選擇都不可避免地會受到系統開發商商業理念的影響,所以一旦智能教育學習系統出了問題,具體的責任應該由誰承擔就很難界定。三是除了智能產品的開發環節,其系統評估者、使用者和監督者的倫理責任也是不明確的。
2.關于師生關系的倫理風險
教育的本質是育人,人工智能的應用可能會在一定程度上妨礙教育育心、育德、育人本質的實現,進而使得教育失去靈魂而變得機械化。從教師角度來看,如果教師無法有效駕馭人工智能、無法實現人機和諧共處,那么就極有可能產生一系列新的倫理困境,主要體現在:一是教師對智能技術的疏離。由于教師在教學上過度依賴人工智能,大量授課和訓練鞏固環節都依賴智能平臺去完成,且智慧教學容易遮蔽教師的個人教學魅力和智慧。長此以往,教師的教學能力會逐漸弱化,其在教學中舉足輕重的主導地位將不復存在。這一角色變化降低了教師的身份認同,從而引發教師對智能技術的非教育性疏離感[1]。二是部分教師的教學行為失范問題。某些教師由于人工智能素養未能在短期內得到極大提升,往往對智能技術在教學中的應用有抵觸情緒,導致無法有效地利用智能教學平臺對學生的綜合能力做出正確的評估、分析和決策,從而造成教師角色行為失德失范問題[2]。三是教師對人性化教育的觀照不足。人工智能的優勢在于其強大的計算能力和預測能力,但在培養學生創造性思維、批判性思維、道德情感和道德品質等方面則束手無策。因此,教師對智能技術的認知不足與主觀依賴容易導致教師對學生人之為人特性的培養有所懈怠。從學生的角度來說,在教育智能化的過程中,作為教育主體之一的學生,其角色地位也會發生相應變化,從而引發一些新的倫理隱憂,主要表現在:一是學生的深層次學習實現受妨礙。智能技術或將使得學生的學習變得輕松愉快但卻難以深入。2022年底ChatGPT語言優化模型的問世讓教育界如臨大敵,因為倘若學生主體長期依賴ChatGPT完成作業,其在寫作時常需運用的謀篇布局、辯證分析以及決策創新等高階思維能力將難以得到發展。人類一旦失去高階思維能力,未來又將如何與日益智慧的人工智能抗衡?二是學生的專注時長與記憶模式受影響。學生每天忙于完成各智能平臺的學習任務,分配給每個平臺的時間非常有限。“慕課”的微視頻使學生的注意力區間調適為5—15分鐘,學生很難持續專注于一項學習任務。此外,永久可獲取的在線信息改變了學生檢索、存儲、回憶甚至重現知識的方式,影響了學生的記憶過程和習慣,不利于學習者知識的積累和鞏固。三是學生的自主選擇能力被削弱。智能教學系統的一大優勢就是,能夠根據學習者日常學習行為模式的歷史數據推算出其學習需求和偏好,并自動推送為學生量身定制的學習資源。但是,這種推送方式很容易給學生的學習內容帶來諸多限制,不利于其全面廣泛地獲取豐富的知識。同時,該方式也可能會使學生在自主選擇信息方面產生思維上的惰性,自主意識弱化,并由此導致學習主體性逐漸被智能技術所消解。從師生互動關系的角度來說,人工智能應用于教育領域后,教學在一定程度上依賴智能機器,師生現實課堂的接觸時間銳減,過去充滿溫情的教育環境逐漸失去溫度,師生間的情感交流和道德教化失去倫理空間。教育和技術的倫理關系失衡必然會導致教育中最重要的師生關系發生變化。因此,人機該如何共存是不容忽視的倫理問題。一方面,智能技術的應用破壞了師生對話的倫理空間,師生關系逐漸變得淡漠,背離了技術優化教學的初衷。學生如果長期沉浸于虛擬的教育環境,將過分迷戀“投其所好”的智慧型教學系統,認為現實中的課堂教學無趣乏味從而不再主動參與現實的教育活動,缺乏師生積極互動的課堂將顯得更為沉悶,師生間的有效溝通變得愈加困難。另一方面,人工智能技術賦能教育使得學生尊師重教的倫理觀念逐漸淡化。在智能時代,教師的課堂講授不再是學生知識獲取的唯一渠道,因而在部分學生的認知中,教師已不具有不可替代性,不再具有舉足輕重的地位。更甚者,從小和數字技術打交道的學生可以在技術操作方面對教師進行知識與技能的反授。因此,教師的教學主導作用將接受嚴峻的現實考驗,傳統的師生倫理觀念將面臨巨大的時代挑戰。
3.關于教育生態方面的倫理風險
人工智能賦能教育的技術倫理風險也會涉及教育公平、教育的功利性傾向以及AI導致失業等問題。從教育公平角度來說,在人工智能實際應用的過程中,一方面不同地域不同學校教師的智能教育素養發展不同步,其資源整合和人機協同等素養的差異會直接影響智能技術對教學質量的優化程度,智能技術在實際教學應用中的不公平性便會由此凸顯。此外,各地域信息化發展速度迥異使得各地學生對信息化教育的接觸程度不一致,導致各地學生信息化素養參差不齊,自然對智能教育的適應性和接受度也不一致,最終使得學生的學習效果產生分化現象。教育者智能教育素養和學習者智能學習素養的差異性會引發新型教育不公平。另一方面,智能技術的設計、應用等各環節的篩選設定都暗藏著教育利益相關者的價值偏向,智能技術本身的不公平也會引發新型教育不公平問題。如何大幅度大范圍提高師生的人工智能素養,確保智能技術本身的公平性,避免因數字鴻溝造成新型教育不公平,是教育生態方面亟待解決的倫理問題。從教育的功利性傾向角度來說,人工智能賦能教育引發了新的教育生態方面的倫理風險。一方面,某些教育領域的互聯網企業只關注商業利益而忽略了社會倫理責任,為了迎合分數至上的教育功利化“短視”需求,將業務重心放在義務教育階段的校外輔導,專注于教唆學生運用智能技術進行“刷題”。這導致學生成了“刷題機器”,結果不僅使學生逐漸喪失了自主學習能力,而且也背棄了智能技術助力學生學習和生命成長的育人初心。另一方面,智能技術的應用使各類教育資源的獲取變得更為便捷,想在學業方面勝出的學生們很容易受教育功利主義的影響,從而只注重增加學習的量卻忽略了自身能力的提升,除了完成學校的各項學習任務,日夜忙于各大網絡平臺的學習,卻收效甚微。學生超負荷學習的內卷現狀引發了全社會的教育焦慮。此外,AI的應用將引發人們對失業問題的擔憂。人工智能技術的發展將對社會就業市場產生不同程度的影響。一方面,人工智能技術發展尚處于弱人工智能階段,在這一階段人工智能擅長推算認知模擬和學習認知模擬,其記憶、計算及推理能力已遠勝于人類[1],因此與高效運算、精確識別和復推理相關的工作便會受到沖擊。ChatGPT預訓練模型出色的語言生成能力和復雜推理能力令世人震撼,其誕生自然會給語言應用相關行業從業人員造成極大的生存威脅。在這一技術得到進一步的完善提升后,大量文字工作者該何去何從是人類不得不正視的社會問題。今天是人工智能和文字工作者搶飯碗,那明天很可能會有其他類型的工作者因為AI技術的突破性發展面臨失業危機。另一方面,雖然目前的弱人工智能尚不足以對各行業造成致命打擊,但人的智能與人工智能各有所長,相較于智能機器而言,人類并不擅長的理性認知領域的相關工作逐漸由智能機器所替代。這必然會導致產業結構和人力資源結構的重大轉變,也要求提升勞動力的素質。因此,教育管理部門就應該在培養能夠勝任智能時代各行業發展的人才資源方面提前布局,以防范大面積失業問題的出現。總之,教育的本質不是知識的堆砌而是靈魂的交流。然而,面對智能教育引發的算法黑箱、算法歧視和倫理追責等技術倫理風險,教師和學生教學主體地位被削弱、教育的人文價值和道德追求受遮蔽、師生倫理空間受擠壓等倫理風險以及由此所導致的新型教育不公平、教育功利化、部分行業從業人員失業等教育生態方面的倫理風險,只有明晰引發各種倫理風險的根源,才能更有效地進行教育倫理治理,防患于未然。
二、人工智能賦能教育的倫理風險根源
從學科歸屬來看,人工智能倫理屬于技術倫理的分支領域[1],是為實現人與機器、人與人以及人與自然的和諧發展而形成的一系列有關人工智能活動的價值觀、原則或規范的統稱[2]。教育倫理研究教育活動中的道德問題,將倫理道德作為價值導向[3],引導構建教育活動中以教師為核心實踐主體的各種人際關系。事實上,倫理道德的合理性會隨著教育生態的變化而產生相應的改變。在人工智能賦能教育的新生態中,其教育倫理層面還包括人與技術的關系。上文已經論述了人工智能賦能教育在技術倫理、師生倫理以及教育生態倫理等方面可能存在的風險,下文將探討導致這些倫理風險的根源。首先,教育技術方面的倫理風險問題主要源于認知受限而導致的算法黑箱問題、由文化偏見而引致的算法歧視以及由智能技術法治缺位而引發的倫理治理受阻等方面,具體體現在以下幾方面:①認知受限導致算法黑箱問題。人工智能在模擬人類的思維和行為時,也在展示不同的認知類型,從傳統算法到深度學習算法再到強化學習算法最終到情感算法依次演進[4],在短短兩個月內月活用戶突破1億的ChatGPT模型就是運用了Transformer神經網絡架構。目前,在教育領域廣泛應用的深度學習算法,主要是人工智能模擬人的大腦神經網絡并使其工作機制與人腦學習功能相似的邏輯推演。然而,人類大腦的工作原理至今仍然是一個不能夠被完全知曉的領域,至少人類還不完全了解人腦運作的細節[5]。就此而言,關于深度學習算法的運作機制,即使是作為設計者的科學家和程序設計員,都是無法完全理解的,這必然會成為專業人員的算法黑箱,更何況普通民眾的認知水平要遠低于專業人士。普通民眾由于不具備專業的算法素養,所以他們的認知也必然受到限制,因而也無從理解傳統算法的算法代碼及數據的運行邏輯,由此就必然產生認知上的黑箱問題[6]。②文化偏見引致算法歧視。數字化時代,數字系統與文化緊密融合。數據作為人類觀察世界的表征形式,其相關研究本質上是對人的研究,而人類文化往往帶著固有的偏見,導致作為其載體的數據也不可避免地承載著文化偏見,處理數據的大數據算法便自帶人類的歧視意識[1]。在實際應用中,大數據算法如果要融入對教育人文價值、隱性知識和文化差異的衡量,不僅開發難度大而且耗時長。出于對經濟效益的考慮,當面臨對教育公正公平和產品開發效率的抉擇時,大數據算法的開發者往往會舍棄對教育人文價值和教育公平性的追求,從而導致算法標準存在各種偏差,算法歧視大行其道。③智能技術法治缺位妨礙倫理治理。當前,智能技術的相關法律制度是不完善的,而且其倫理規約也沒有被完全構建起來,因而與智能技術相關的德行培育也是滯后的。這不僅不利于教育技術倫理秩序的有效構建,而且也妨礙智能技術教育倫理治理的開展。因為各技術公司間存在商業競爭,且算法公開可能涉及的數據安全問題極易招致法律糾紛,所以各公司都不愿意公開自己的算法,這也導致了人為算法黑箱問題的產生。當前,有關算法公開和數據安全的法律政策的更新不僅尚未跟上智能技術迅速發展的步伐[2],而且已有的相關法律政策的界限也是模糊的。同時,在一定程度上,教育數據化也使得教育的人文性被遮蔽,教育可被數據化的合理限度仍缺乏必要的倫理規約。缺失了法律制度和倫理規約指引的各數據主體,其德行修養未能得到很好的培育。最后,作為教育數據主體的師生自身數據安全意識淡薄,缺乏相應的法律保護意識,也是造成技術治理困境的另一成因。其次,師生關系方面的倫理風險問題源于教師教學工具性被放大、學生學習虛擬空間的主體性異位以及師生生命共生關系認知缺失等方面。其主要體現在:①教師教學的工具維度得以放大。隨著人工智能在教育領域應用的日益廣泛和深入,教育教學主體對智能技術將越來越依賴,極易產生過分崇尚新技術的片面化的技術理性取向。馬克斯·韋伯把理性分為工具理性和價值理性。工具理性追求事物的最大功效而價值理性則強調用純正的動機和正確的方法實現目標[3]。在人工智能賦能教育的初期階段,極易出現片面化的技術理性引發的一系列倫理困境。在運用先進的智能技術完成高效、可控教學的過程中,教師成為各項程序的執行者,很多時候不再需要根據教學現場學生的情緒及言語反饋對教學方案和授課方式進行靈活機動的調整,教育將呈現按部就班的機械化趨勢。由于智慧課堂時間的增加,現實教學空間受擠壓,教師未能有足夠的課堂時間啟迪學生對有意義的價值問題進行深度思考。對教學技術的長期依賴或將使教師逐漸失去自主創新和自我反思的能力,那么教學活動就會失去其應有的靈動性。②學生學習虛擬空間的主體性異位。德國古典哲學家費希特用異化表示“自我”創造“非我”,客體由主體異化產生[4]?;谏鐣J識論,智能虛擬教育場中的學生形象是現實教育場中“自我”的化身,是“自我”的另一個客體,當“自我”的意志、情感、認知等內在特征未完全遷移至虛擬教育場中的“非我”時,學生主體在教育虛擬場中的主體意識便被弱化,且在學校紀律等外在約束消解的情況下將逐漸形成與現實“自我”相去甚遠的“虛擬人格”[5]。這樣,現實世界中的“自我”和虛擬世界中的“非我”之間的主體性異位,對學生學習能力的發展和人格的完善都會產生不良的影響,其結果是長期沉浸于智能學習的學生會疏于深度思考,思維鈍化,自主意識弱化,從而導致學生學習主體地位受到削弱。③師生生命共生關系的認知缺失。在智能時代,以師為重的傳統師生倫理觀日漸式微,教師不再是學生知識獲取的主要渠道,線下現實教學時間銳減,教師言傳身教的空間受到擠壓。智能機器雖然取代了教師的知識教學工作,但二者并非必然的對立關系,在一定程度上二者是可以實現融合共生的。智能機器可以將教師從繁重的重復性知識教學勞動中解放出來,騰出時間和精力去從事學生更為需要的道德情感教育和價值觀教育。也就是說,智能機器可以協助教師實現對學生的共育。如果在師生倫理空間受到嚴重擠壓的智能時代,教師與學生未能以發展的眼光對師生關系有正確認知,那么就會導致師生之間缺少關愛,教育失去溫度,師生關系淡漠。相反,如果我們能夠有正確的認知,那么這種共生意識也就同樣適用于人類教師、智能教師與學生之間的關系,進而實現三者和諧共生的愿景。最后,教育生態方面的倫理風險問題,主要源于公平正義的終極理性價值缺失、追崇效率的技術功利主義盛行以及理性見長的人腦智能異化物誕生等方面,具體體現在以下幾方面:①公平正義的終極理性價值缺失。哲學視域下,價值論追求的終級理性價值以公平正義為內在目的,唯有智能技術忠于這一價值,其發展才能以公平正義為導向[1],而負荷多重價值的技術兼具自然屬性和社會屬性,屬于人的行為,因而必然包含人的目的、價值等因素[2]。以彌合教育鴻溝、促進人類教育公平為終極目標的教育智能技術,看似通過教育數據的量化能促進教育公平,但實際上,智能教育產品開發的每一個環節都存在多種設計路徑的選擇,選擇的背后則是“資本以增加用戶粘性來謀取利益的商業邏輯”,其背后隱匿了更多的價值歧視[3]。如果教育的價值偏向被暗中嵌入技術設計的路徑中,那么以算法黑箱為掩護的智能教育產品就會加劇使用者價值觀的迷失,并進而引發更深層次的教育不公平。②追崇效率的技術功利主義盛行。在現實的教育實踐中,智能教育的技術理性如果缺乏公平正義的價值理性的約束,則不可避免地會受到功利主義的侵蝕[4]。人工智能賦能教育后,教育技術的工具理性效果被最大化,其結果就是引發教育功利化問題。為了迎合部分家長和受教育者學習周期短的偏好,一些教育智能技術開發者急功近利,有意無意地忽視了對教育內在價值的追求,只生產能高效傳遞教學信息的教育產品,簡化教育認知過程,忽略對學生的情感教育和思維能力培養。這樣,教育的人文性就必然被束之高閣,而受教育者也會被動地成為功利主義教育的犧牲品,教育培育人的本質會由此受到遮蔽。③理性見長的人腦智能異化物誕生。馬克思的異化理論揭示了資本主義社會的工人可以與自己的勞動發生疏離并出現勞動異化現象。這一與異化理論同樣適用于智能時代的人與其勞動成果之間的關系,人工智能是人腦的創造物且在服務于人類的同時與人腦發生疏離[5]。當前,弱人工智能雖然屬于智能技術發展的初級階段,但人類區別于其他動物的理性思維優勢已不復存在,人工智能在模擬人腦的推算認知方面已遠超人腦,這一與認知能力相關的工作將慢慢被智能機器所取代,人類的重復性勞動將為智能機器所替代。綜上所述,為了促進智能技術和教育教學的融合共生并進而實現人類對教育公平的終極追求,我們就需要在深刻反思智能教育倫理風險的基礎上,加強防范人工智能賦能教育的倫理風險。
三、人工智能賦能教育的倫理風險防范路徑
2019年聯合國教科文組織發布文件倡導重視人工智能深層次倫理問題的相關研究,提出要趨利避害地加以應用。我們認為,應從加強技術支撐和倫理規范建設、構建新型師生倫理空間、明晰倫理責任以回歸育心育德育人的教育本質、提升智能素養以實現教育技術融合共生等方面進行人工智能賦能教育的風險的防范。第一,優化技術支撐,加強技術倫理規范建設。人工智能在教育領域的應用中存在算法“黑箱”問題,導致其推薦的個性化學習內容、學習分析和評價缺乏可靠的解釋,從而使得教育主體對人工智能技術缺乏信任,同時也可能引發因數字鴻溝而產生的新型教育不公平問題。有研究表明,可解釋人工智能[1]在智能教學系統中的應用能有效提升其內部機制的透明度與可解釋性,獲得更高的信任度,是解決人工智能算法“黑箱”問題的有效路徑。當學習者能夠明了智能教學系統所提供的學習評價、學習指導與推薦的學習內容背后依據的學習策略時,他們表示更受益且更愿意再次使用該智能系統。如果該系統能根據學習者的個性特征和認知能力做出符合個性化需求的解釋,這種積極作用則更顯著[2]。雖然可解釋人工智能教學系統能夠在一定程度上消解目前人工智能算法黑箱和算法偏見引發的倫理風險,但該技術的研究和應用仍處于探索階段,其技術水平亟待提高。除了改進技術應用、優化技術支撐,算法的倫理治理離不開法律規制的協同作用。確保算法的公開性、透明性與可追責性是消除因算法歧視而引發的新型教育不公平的有效途徑,加強行之有效的倫理規制,并積極推動算法公開的相關法律政策制定。要積極完善專利制度,認可算法相關發明的可專利性,為消除因算法公開引起的非法商業競爭解決后顧之憂,鼓勵符合倫理要求的算法良性創新發展[3]。從防范數據的倫理風險角度來說,教育數據治理是從教育的價值追求出發,以解決教育問題為目的,在教育倫理的規約下開展數據收集和分析,做出符合教育價值的決策[4]。教育數據治理的倫理包括制度倫理和德性倫理兩個向度,兩者相輔相成[5]。鑒于教育數據保護的特殊性,具有針對性的法律制度和專門機構至今缺失。因此,為明晰教育數據安全保護的倫理紅線,專門法律制度的出臺以及教育大數據倫理共同體的構建勢在必行,使教育數據安全治理有法可依,有規可循。此外,各數據主體德性倫理的培育需要制度引導和數據安全教育機構的規勸,同時也需要自身道德自覺性的提升,發自內心認可和接受個人信息及安全隱私的倫理觀[6],共同建設技術可控、以人為本、以法為界的教育倫理治理新環境。同時,在數據治理的過程中,我們也需要讓數據的收集和使用主體承擔倫理責任,以教育倫理為引導,解決數據隱私泄露、數據越權篡改等倫理問題。教育數據主體也應該提高自身的數據安全保護意識、數據權責意識和法律追責意識,對意外產生的數據倫理問題做到有效防范和追責。第二,彰顯厚德仁愛,構建新型師生倫理空間。智能教育時代的教師面臨著教育主體地位被削弱、師生情感維系難度加大等倫理困境。為了破解這一困境,我們認為應該運用蘊含“貴和”文化內涵的“和合”倫理,以追求融洽、和諧、和美的教學關系和人的整體生成[7]為出發點和落腳點,引導教師角色轉變,創新師生倫理關系。一方面要引導教師實現角色轉變?,F代智能教學系統主要根據算法給學生提供學情分析,推薦符合學生個性化需求的學習資源和策略,在知識傳授方面分擔了教師的部分教學任務,在一定程度上取代了教師的授課地位。但是,智能機器和人最大的區別在于它沒有仁愛之心和創造力,因而智能技術無法與學生進行情感互動和人格互鑒,無法替代教師進行情感教育和道德教育。然而,越是智慧的教育,越需要注重教育的人文屬性。那么,智能時代的優秀教師就需要把仁愛之心帶到教學中來,真心實意地與學生進行情感溝通,讓課堂充滿溫情和關愛,讓教育返璞歸真。這就需要教育實現人機協同、優化教學過程,融教學、技術、人文建構于一體,追求融合、和諧的教學關系和人的整體生成,以促進學生的文化品格提升與生命成長為教學旨歸[1]。另一方面要重構師生倫理關系。教師尊嚴是教育倫理建構的原點[2],然而在智能時代,師道尊嚴的傳統倫理觀漸行漸遠。面對技術與教育失衡的困境,教師應該具備敏銳的先行探索意識[3],迅速調整角色定位,回歸教學主體的主導地位。人工智能技術協助教師從重復性勞動中解脫出來,并不意味著教學主體讓位,而是教學主體要將更多的精力投入到智能技術無法企及的情感教育、道德教育以及創新教育中去。教師對學生的教育應該是動之以情、曉之以理,在教學之外成為學生情感上的引路人,在道德行為上成為學生的效仿典范,師生之間重新建立起心與心的溫情交流。以“愛”作為師生間溝通交流的重要方式,學生才會“親其師,信其道;尊其師,奉其教;敬其師,效其行”,師生共同構建“師—技—生”和諧共處的新型倫理空間[4]。第三,完善倫理責任機制,堅守育心育德育人初心。在人工智能時代,技術的工具理性與教育的價值理性常常處于失衡狀態,“人工智能技術所裹挾的工具理性僭越教育的育人價值”[5]的現象和問題越來越普遍。為此,我們需要在技術的工具理性和教育的價值理性之間尋求平衡點,明晰并強化教育主體的倫理責任。雖然人工智能技術能否真的成為道德主體并在未來取代人類教師成為教學主體一直備受爭議,但是一個不爭的事實是當下的人工智能技術并不具備教育主體所需的智慧、意志、態度和信念,因此無法承擔相應的道德主體責任。這是因為擁有心智狀態是成為道德主體的必要條件[6],而人工智能不可能具備這一必要條件,自然無法真正成為人工智能教育倫理的道德主體,也永遠無法占據人類教學主體的位置。因此,人類教育不能因智能技術對教師主體地位的僭越而對其產生非教育性疏離感,排斥智能技術在教育領域中的應用。為了避免教師與智能技術處于對立的狀態,我們應該認識到人工智能只是機器,一種促進教學的輔助工具,人類教師的教學主體地位始終無法動搖。不管人工智能變得多么強大,教育傳承文化、創造知識、培養人才的本質不會變,立德樹人的根本目的不會變[7]。教育初心,育人為本,作為教育倫理的道德主體,教師應始終堅守育人初心。第四,提升教師智能素養,實現教育技術融合共生。人工智能賦能教育必然會導致技術逐漸擠壓教育教學空間并促生教育領域的技術反向馴化現象。技術的反向馴化是指人與技術從屬關系的顛倒,人類在發明、改進技術的同時,技術也在反向馴化人類[8]。教育領域的技術反向馴化現象導致教師教育主體地位被削弱,教育和技術陷入對立失衡的倫理困境。為了消除智能技術反向馴化現象,教師需要提升技術認知、數據應用、資源整合、創新教學、人機協同以及倫理安全等六個方面的素養。教育智能技術反向馴化的消除不僅需要提升教師的人工智能素養,同時也需要學生的通力合作,師生一起提高對前沿技術的認知并理性地對待人工智能在教育領域的賦能,化“有形”于“無形”,隱形化智能技術。當師生在教學中都能駕馭智能技術時,師生會將智能技術視為一種輔助教學的常規工具,便感受不到它在實際教學中對教育的僭越作用,在真正意義上達到技術與教育的融合。為此,為了適應智能教育新生態,政府應該為不同教育階段的學習者提供信息技術教育,有效提升其數字勝任水平[1]。作為未來數字公民的學生的智能素養的培養顯得尤為重要,在努力提高數字化學習能力的同時,學生應避免過度依賴智能技術,以防產生思維惰性,影響教育對其批判性思維和創造性思維的培養,背離智慧教育的初衷。技術與教育融合共生的智能教育新形態亟需教師提升人工智能素養,同時也需要學生理性應對人工智能的教育賦能,與教師共同駕馭智能技術,重建心靈交流和情感互動,做一個懂技術、有情感、有溫度、有品德的未來數字公民。
四、結語
人工智能賦能教育改變了教育生態,給未來人才培養模式和教學方法變革帶來新的生機,將使大規模個性化教學成為現實,但同時也可能會造成復雜且棘手的教育倫理新困境。過度依賴智能技術的教育往往會導致工具理性對價值理性的僭越,忽視對學生人格的完善,師生間話語溝通、情感溝通以及道德熏陶的倫理空間受到擠壓和限制,教育極易偏離其育人的本質從而引發一系列倫理問題。然而,我們需要客觀地看待并處理這一由技術發展而引致的教育倫理問題。一方面,我們需要明確,教育新生態中的智能技術發展和運用是一個必然的趨勢,不能回避。另一方面,人工智能技術被運用于教育教學實踐活動中的時候,它只有遵循教育的價值和規律,才能有效促進教育的長遠發展。在智能算法的黑箱問題上,要求相關人員改進技術使智能系統內部運作機制公開透明,這樣才能提升教育主體對智能教育系統的信任度;在教育數據安全問題上,只有依賴智能技術相關倫理規范與法律法規的出臺,以及各數據主體德性倫理的培育,才能建設以人為本、以法為界的教育倫理治理新環境;在師生關系的倫理問題上,需要以根植于中華傳統文化的“和合”倫理取向為指引,倡導構建智能時代仁愛型的師生倫理關系,讓智能教育變得更有溫度。總之,人類必須立場鮮明地堅信智能教育新生態中的道德主體和責任主體始終是人類教師,教育工作者需將學生的人格養成和生命成長視為教育的首要任務,用仁愛之心堅守教育育人的本真價值,實現智能技術和教育教學的融合共生。為此,我們要平衡好技術的工具理性和教育的價值理性之間的關系,明確并強化教師在人工智能教育倫理中的道德主體地位,通過師生人工智能素養的提升化解智能技術的反向馴化現象,并消除對人工智能技術的非教育性疏離感,進而促使智能技術有效地服務于教育教學實踐活動。
作者:王曉敏 劉嬋娟