• <acronym id="danlv"><form id="danlv"></form></acronym>
  • <dd id="danlv"><rt id="danlv"></rt></dd>
      <var id="danlv"><rt id="danlv"><big id="danlv"></big></rt></var>
      1. <code id="danlv"><ol id="danlv"></ol></code>
        <var id="danlv"><rt id="danlv"></rt></var>
          1. <code id="danlv"></code>
            返回首頁

            探討AI教育的倫理問題

            時間:2018-11-11 23:10來源:知行網www.n1979.com 編輯:麥田守望者

              培生“AI+教育”的研究報告在肯定人工智能的優勢和巨大潛力的同時,報告提出了一些有爭議的話題,包括人工智能與人類和真實世界的關系,人工智能在道德倫理上面臨的挑戰等,這些問題引發了一些列擔憂。

              AI 會取代人類嗎?

              一些科學界人士擔心AI是個“潘多拉盒子”,會導致危險的后果。早在1993年,計算機科學家Vernon Vinge推廣了技術新概念: AI驅動的計算機或機器人能重新設計并改進自身,或者能設計比自身更先進的AI。自然有人認為,這將導致AI超出人類智慧、理解和控制,從而導致人類時代的終結。近來,史蒂芬·霍金和其他權威科學家,包括Stuart Russell, Max Tegmark, 和 Frank Wilczek 同樣警告過,AI太過“聰明”的潛在后果。

              這個令人憂慮的想法給好萊塢電影提供了素材,從60年代的《2001太空漫游》,到80年代的《終結者》系列及近期的《超驗駭客》,所有電影都選擇描述各種失去控制的AI主導的反烏托邦世界。

              但在我們太過擔憂之前,需要說明一下人工智能當前的水平。如果實現,首先“全能AI”必須實現重大進展,即可以AI機器人可以成功勝任所有人類勝任的智能任務。而現在,該AI技術根本還未實現。通用AI不同于我們大多數人熟悉的“領域特定AI”。這些領域特定AI專注于一件事情——例如,掌握國際象棋(Deep Blue或Giraffe),或者Go(谷歌的Deep Mind)、駕駛汽車(谷歌的自動駕駛)、或護照照片人臉識別。即使是知名的AI倡導者也認為,Vernon Vinge提出的新觀點在未來某天終會到來, 通常在他們寫出程序后的三十年左右。

              然而,AI越來越發達,它已經對我們的經濟產生了深遠影響。在2013年的一項研究中,經濟學家 Frey 和 Osborne 使用AI技術探索自動化對職業影響的研究。基于他們的預測,美國職場上約47%的職位面臨極大的風險,可能在接下來的十年或二十年將會被機器 取代。迄今為止,中等收入職位受到的影響最大,也體現了當下最易受自動化影響的工作內容。

              對于過去經濟發展過程中出現的重大變革(例如,從農業為主的經濟轉變成工業經濟),人們通過改變教育和學習的范圍和內容逐漸適應。這種觀點是,如果“工人有靈活的技能,如果教育基礎設施得到充分發展,那么技術和教育之間的競爭沒有勝利者,成果將會被更多人共享”。

              在快速發展的AI面前,這種方法是否適用值得商榷。歷史證明,技術的改變通常會帶來很多無法預料的新角色。而其他人,如Martin Ford認為隨著自動化承接越來越復雜的任務,工作機會會減少,無法保持當前的就業率。

              AIEd的倫理問題

              人工智能(AI)的發展正在加速,滲透到我們生活的每一方面。問題在于,我們是否已準備好可控制的情況下讓此發生?正如牛津大學的哲學家 Nick Bostrum 所論述的,需特別謹慎地關注 AI 的倫理問題:“責任、透明性、可審計性、防破壞性、可預測性 (...);必須在旨在取代人類社會功能判斷的算法中考慮這些標準”。

              例如,如果 AI“出錯”(比如,可參見 2010 年金融界“閃電崩盤”事件中算法起到的作用)由誰來承擔責任,是最終用戶還是程序員?如果交通事故涉及自動駕駛車輛,該怎么處理?能否知曉它是如何做出決定并對其進行修正來防止問題的?如果 AI 使用的是神經網絡,這已變得非常困難。而且,AI 是否開放操控?我們都非常清楚電腦黑客行為的后果。如果出于犯罪目的開發或修改 AI,會發生什么?

              對于 AIEd,同樣存在這些倫理問題。例如,我們知道共享數據對 AIEd 系統的集成至關重要,而且,匿名化數據的共享,通過削減浪費、重復性工作,可促成該領域的飛躍式進步。但這種共享帶來了從個人隱私到專有知識產權的大量問題。的確,AIEd 系統所生成的數據越來越多,同時更加多樣化,這讓現有的教育數據倫理問題風險加倍。AIEd 系統數據生成、分析、解釋和使用有什么影響意義?誰持有數據、誰可使用數據,出于何種目的使用數據、誰負最終責任?

              另一個需考慮的問題是,AIEd 旨在影響用戶的長期行為并對其進行改變。例如,系統可作出建議、進行勸說或提供反饋,使人機之間建立關系。行為改變毫無疑問是一種可能,但這仍沒有經過嚴肅的倫理考慮。

              其他擔憂則與學習伙伴相關,雖然它們被設計出來的原意是支持學習者學習,但恐怕 “跟隨”您的伙伴反而會永久性地記錄下學習失敗經歷,不利于未來的發展。

              同樣地,AIEd 教學輔助工具的概念也引發了擔憂:該技術是否會被教師用作課堂“間諜”來記錄和報告學生的不良表現?

              因此,我們有責任確保社會能對 AIEd 有充足的認識,使我們以恰當、有效和符合倫理的方式使用這些新技術。

              AIEd與真實世界

              很多時候,人工智能教育(AIEd)中的“仿真人工”一詞造成了該技術在某種程度上脫離我們真實生活的感覺。我們的觀點是,AIEd 本質上是人類的真實嘗試,在其發展過程中,AIEd 將愈加依賴人類和實體環境,并由此變為學習過程不可分割的組成部分。

              1. AIEd 將增強實體環境

              增強現實(AR)系統能夠支持學習者和教師以不同的方式體驗實體世界并與之交互, 從而比智能虛擬現實系統更進一步。AR 技術可展示關于人環境信息的疊加層,使課堂內容疊加到學習者的真實體驗中。例如,學習者在周游世界過程中,周圍建筑物的年代、建筑風格等都可以隨之變化。

              我們已經看到現有的 AIEd 系統如何以社交和文化智能,讓它們在虛擬環境中引導和支持學習者的。在 AR 系統中增加 AIEd 將促成個人化的自適應教育體驗;其中虛擬導師引導學生進行實地考察,而教師將注意力集中到需求最為強烈的學習者身上。

              2. AIEd 將與萬物網相連

              具備內置計算系統、傳感器和網絡連接的物品及支撐網絡被統稱為“萬物網(IoT)”。IoT 使任何網絡支持的物體可與任何其他網絡支持的物體相互連接。這為 AIEd 系統開拓了新的可能性,例如,支持學習者形成需要較多一致性練習的運動技能,比如跳舞、演奏樂器、甚至是學習手術技能。

              3. AIEd 將理解我們如何感覺及運動

              我們如何感覺(情感)和我們如何運動對學習有顯著的影響。最近的研究已支持這一觀點。這些深入的見解表明,可通過將這些額外信息納入考慮范圍進而改進學習技術。現在,學習者模型已不再僅限于記錄和展現學習者的學業進步情況,可佩戴在衣物中或綁在身體部位的傳感器(如Fitbit)已經開發出來。

              通過采集學習者情緒和生理狀態數據的復雜模型,未來的 AIEd 系統將更加支持學習者。這些得到完善的模型將進一步促進學習者的學習,且將向單個教師提供關于學習者的生理和情緒健康狀態,并支持其認知發展的實時信息,使教師可以對學習者進行恰當及時的干預。

              教師與 AIEd

              毫無疑問,在 AIEd 發展的下一個階段,老師將成為中心點。一方面,老師會成為協調者,決定何時以及如何使用AIEd 工具。同時,AIED 也將提供工具和數據分析,支持老師更好地利用豐富多樣的教學資源。

              不僅僅局限于此,老師、學生和家長應當在 AIED 教學工具的設計與使用方式上發揮重要作用。共同參與式的設計方式能夠確保產品滿足老師的需求,比如為現實中混亂的課堂提供支持,而不是技術或設計人員想象的需求。參與產品的設計與研發過程的老師也會有收獲,增強其對技術,產品設計,以及AIED 系統的理解。

              如前所述,我們認為,引入 AI 支持工具將促使老師進行角色轉換。目前我們希望由老師承擔的部分工作將由 AIED系統完成,比如對學生的學習進程做標記和記錄。 AIED系統會把老師從日常耗費大量時間的重復性工作中解放出來,把更多精力放在創造力、人文關懷上,使學生的學習更上一層樓。伴隨著這一轉變,教師也需要學習新的技能(可能是由 AIEd 系統提供的職業發展培訓)。他們將特別需要:

              深入理解并評估 AIED 系統,正確判斷新的AIED產品的價值;

              提升研究能力,學會解讀數據,從數據中發現問題,并幫助學生解決問題

              新的團隊合作模式和管理能力,每個老師都會有虛擬的人工智能助手,“他們”負責有效管理資源。

            ------分隔線----------------------------
            標簽(Tag):人工智能教育 人工智能 AI教育
            ------分隔線----------------------------
            推薦內容
            猜你感興趣
            日韩在线av免费视久久