新聞中心

實時更新飛瑞敖最新動態(tài),了解飛瑞敖

打開未來智能教育“黑箱”的鑰匙

發(fā)布時間 :2022-05-06

眾所周知,人工智能的精準和高效使其在很多領(lǐng)域的應用已經(jīng)超出了人類自身所具備的計算和執(zhí)行能力。隨著技術(shù)逐步朝著自動感知、學習、決策和行動的自主系統(tǒng)方向發(fā)展,機器學習、深度學習等人工智能關(guān)鍵技術(shù)因缺少透明度和對結(jié)果的邏輯解釋,導致人工智能應用中存在的“黑箱”與數(shù)據(jù)偏見、算法不公等問題逐漸顯現(xiàn)。人工智能需要解釋它是如何做出決策的,這樣才能避免模型和算法的誤用濫用,從而成為推動人工智能治理從原則到實踐有效落地的有力工具和手段。因此,聯(lián)合國教科文組織于2021年發(fā)布了《人工智能倫理建議書》(Recommendation on the Ethics of Artificial Intelligence),明確提出人工智能倫理的十大原則,其中特別強調(diào)了人工智能的“透明性和可解釋性”。


可解釋的人工智能并不是一個新的概念。它是指算法模塊的輸入、輸出和性能及其系統(tǒng)結(jié)果可以被理解,并提供闡釋說明,幫助用戶充分理解算法的決策機制、決策過程和決策結(jié)果的公正性。可解釋性是構(gòu)建教育領(lǐng)域?qū)θ斯ぶ悄軠蚀_認知和良好信心的必然要求。教育作為特定環(huán)境下,通過人與人互動所形成的認知建構(gòu)的過程和結(jié)果,其對人工智能可解釋性的要求更高,也更迫切。未來智能教育的目標是推動人工智能技術(shù)與教育教學的深度融合,并促進學生高階能力的培養(yǎng)。隨著越來越多學校開始使用人工智能技術(shù),幫助教師了解人工智能技術(shù)的決策過程和決策依據(jù)變得越來越重要。教師不僅需要了解學習者學到了什么,還需要了解他們是如何學習的。因此,人工智能技術(shù)的提供者需要解釋它如何決定特定的行動方案??梢哉f,可解釋性帶來透明度,而透明度將帶來更大的信任度。


目前,許多智能教育產(chǎn)品片面關(guān)注機器學習、深度學習等技術(shù)結(jié)果的精準度,而忽視技術(shù)應用的可解釋性與可理解性。我們通過人工智能技術(shù)對教育數(shù)據(jù)進行收集、輸入和處理,獲得輸出的結(jié)果和決策,但卻無法理解和解讀模型中的工作原理,因此導致人工智能得出的結(jié)論無法解釋。不可避免地,具有偏見的教育數(shù)據(jù)集與算法有可能帶來不公平或錯誤的結(jié)論或決策,因此,亟需建立有效的機制對其結(jié)果進行解釋或驗證。由此可見,智能技術(shù)存在的“黑箱”問題,使智能教育系統(tǒng)的決策結(jié)果缺乏透明度和可解釋性。在此基礎(chǔ)上,智能教育的有效性因缺乏解釋能力和因果機制而受到限制和質(zhì)疑。


在自適應學習系統(tǒng)中,智能教育的可解釋性包括模型理論、學習路徑和訓練數(shù)據(jù),以及針對某些特定的學習場景和任務訓練的人工智能模型。一方面,開發(fā)人員需要了解算法的真實性能和局限因素并對公眾闡釋說明,從而達到可解釋的效果;另一方面,科技公司需要提供可解釋性機制、工具和服務,從而減少算法偏見和歧視,使教師和學生從透明的算法中受益,增強對人工智能系統(tǒng)的信任。


需要指出的是,可解釋的智能教育系統(tǒng)不是一個單純的技術(shù)問題,更是一個教育理論和教學原理問題。在可解釋的人工智能教育的研究中,要充分利用不同學科的知識和經(jīng)驗,共同研究、開發(fā)和應用人們可以理解的智能教育系統(tǒng)。


在此基礎(chǔ)上,需要提高教師和學生的人工智能素養(yǎng)。它要求將人工智能知識、技能和倫理方面的教育納入各級各類學科的教學中,以便教師和學生能夠了解和掌握與人工智能系統(tǒng)進行互動的知識和技能,理解人工智能的算法和模型,并做出明智的決定和行動。一方面,智能教育系統(tǒng)的實際效用取決于機器是否能夠被充分理解,并向管理者、教師、學生解釋其特定決策和行動的理由;另一方面,教師和學生的人工智能素養(yǎng)直接決定他們是否能夠理解智能系統(tǒng)給出的建議和結(jié)果,進而優(yōu)化教學和學習過程。


因此,可解釋的人工智能是打開智能教育“黑箱”的前提,而人工智能素養(yǎng)是確保智能技術(shù)在教學過程和教育評價中有效應用,以及教育系統(tǒng)決策可理解、可信任、可管理的基礎(chǔ)。


本期專欄刊登托雷·霍爾(Tore Hoel)教授等人撰寫的《可解釋人工智能的教育視角:基于倫理和素養(yǎng)的思考》(AI Explicability from an Educational Perspective: Rethinking Ethics and Literacy)一文,探討人工智能可解釋性在不同層面的應用以及未來人工智能給教育可能帶來的機會和挑戰(zhàn)。文章介紹了機器學習等技術(shù)以及可解釋人工智能的工作原理,并從教育視角提出為了實現(xiàn)人工智能的可解釋性,還需要普及人工智能教育,通過系統(tǒng)的人工智能課程來提高人們的人工智能素養(yǎng);強調(diào)人工智能首先需要被理解,人們才可能建立對人工智能的信任。因此,加強人工智能素養(yǎng)教育,特別是人工智能倫理方面的培訓,是教育在促進未來社會發(fā)展中所擔負的重要責任和義務。


分享到微信朋友圈 ×
思洋廣州網(wǎng)站建設(shè)公司

免費咨詢

*姓名:
*手機:
郵箱:
區(qū)域:
您的問題:

感謝您的關(guān)注,您有任何問題都可以在此留下信息,飛瑞敖會及時為您提供幫助。

提交