3月1日耶魯網(wǎng)絡領導力論壇開幕討論大數(shù)據(jù)數(shù)據(jù)隱私和人工智能治理
導讀 耶魯網(wǎng)絡領導力論壇于上周五開幕,第一場會議討論了大數(shù)據(jù)、數(shù)據(jù)隱私和人工智能治理。該會議由耶魯社區(qū)成員親自主持,并在 Zoom 上向公眾...
耶魯網(wǎng)絡領導力論壇于上周五開幕,第一場會議討論了“大數(shù)據(jù)、數(shù)據(jù)隱私和人工智能治理”。
該會議由耶魯社區(qū)成員親自主持,并在 Zoom 上向公眾開放,是旨在將法律、技術、政策和商業(yè)方法與網(wǎng)絡安全聯(lián)系起來的三場會議中的第一場。今年論壇的主題是“彌合鴻溝:人工智能對的影響”。會議包括兩個小組討論,均由耶魯大學全球法律挑戰(zhàn)中心主任 Oona Hathaway 主持,小組成員來自耶魯社區(qū)。
“每年我們都在嘗試創(chuàng)新,”海瑟薇說。“我們的目標是在每組討論中開辟新天地。這次我們決定真正關注耶魯社區(qū)。[...] 我們認為這是在這個關鍵時刻嘗試建立跨部門和項目的橋梁的機會。”
海瑟薇解釋說,之所以選擇從耶魯社區(qū)吸引小組成員,部分原因是大流行的旅行限制,但也因為耶魯?shù)脑S多教職員工和學生都在研究相關問題。
周五的會議由計算機科學教授 Joan Feigenbaum 和計算機科學教授兼計算與社會倡議 Nisheeth Vishnoi 的聯(lián)合創(chuàng)始人主持。會議重點關注人工智能的風險和機遇,特別是在隱私和監(jiān)控方面。
該小組首先討論了人工智能和機器學習的現(xiàn)狀,特別關注面部和語音識別技術的影響。Vishnoi 將人工智能和機器學習描述為“在過去十年中取得了巨大進步”,但繼續(xù)討論人工智能在算法偏差方面的失敗。
Vishnoi 說,對抗性的例子,例如自動駕駛汽車的算法可能無法識別停車標志,而停車標志有一些“人眼無法檢測到的非常小的擾動”,這表明當前的機器學習技術對此類攻擊非常脆弱。
Vishnoi 建議,參與式設計可以成為消除算法偏見的有效方法,讓可能受影響的各方參與設計過程的每一步。
然后討論轉(zhuǎn)向人工智能和大數(shù)據(jù)對隱私問題的影響。Vishnoi 提出了制定保護人們隱私的政策的問題,例如難以將“被遺忘權(quán)”(個人可以要求刪除其數(shù)據(jù)的保證)應用于人工智能和機器學習。
另一方面,費根鮑姆對人工智能風險的擔憂較少,并對人工智能和量子計算機等新興技術超越人類智能的能力表示懷疑。
“我有點懷疑人工智能,”費根鮑姆說?!皯岩刹皇蔷芙^ [...] 我經(jīng)常聽到關于 AI 對社會的影響、AI 對技術世界的影響 [...] 的討論,而真正影響我們的并不是真正的 AI,它只是自動化,而是只是技術,只是計算機?!?/p>
Feigenbaum 還討論了她的密碼學領域的政策和技術之間的沖突,包括強制執(zhí)法部門訪問加密將如何導致整個加密系統(tǒng)的安全性降低。
兩位小組成員就人工智能的進展及其核心定義進行了辯論。
Vishnoi 說:“我們需要消除這個神話,即 [...] 人工智能沒有任何智能。” “要規(guī)范這種智能,我們必須了解這種智能?!?/p>
費根鮑姆回應說,算法框架設計中的大部分智能實際上是人類智能。
Hathaway 指出,這是一場富有成效的辯論,是論壇開始的好地方。
“這是一個存在廣泛分歧的問題,播出這個問題是論壇開始的好地方,”海瑟薇對新聞說。
第二個小組是耶魯大學法學院信息安全項目的研究員 Anat Lior;Nathaniel Raymond,國際事務講師;耶魯大學生物倫理學跨學科中心技術和倫理研究小組組長 Wendell Wallach。小組成員討論了實施人工智能監(jiān)管政策的困難,以及不同國家制定此類政策的方法。
Lior 描述了和在政策方面的差異,指出正在朝著監(jiān)管人工智能的“統(tǒng)一框架”邁進,而則采取更加分散的方式。
“制定法規(guī)顯然會產(chǎn)生某種約束——道德約束、法律約束——這將減緩這一進程,從這個意義上說,我認為正試圖為人工智能創(chuàng)新的繁榮創(chuàng)造某種寬松的框架,”里爾說?!皩Χ髿?chuàng)新的恐懼非常大 [...] 快速行動并在此過程中打破常規(guī)的口號非?;!?/p>
鑒于最近 2021 年 11 月對紅十字國際委員會的網(wǎng)絡攻擊,與紅十字會合作的雷蒙德談到了組織有必要披露此類人道主義數(shù)據(jù)遭到破壞、攔截或疏忽處理的數(shù)據(jù)關鍵事件,紅十字會在發(fā)現(xiàn)違規(guī)行為后的四天內(nèi)完成了這項工作。
“這真的不是一個技術故事,而是一個缺乏規(guī)范的故事,”雷蒙德說。“雖然國務院發(fā)言人內(nèi)德·普賴斯呼吁對紅十字會黑客事件追究責任,但國際上并沒有統(tǒng)一的譴責聲明,即人道主義數(shù)據(jù)等同于人道主義設施、人道主義工具 [...] 它以大黃色突出顯示熒光筆,簡而言之,關于人道主義網(wǎng)絡空間的國際學說中的巨大漏洞。”
Wallach 專注于處理新興技術的國際合作挑戰(zhàn)。他描述了、中國和在處理這些“基本上無人管理的空間”方面的不同做法。
瓦拉赫說,在內(nèi)部,存在著對創(chuàng)新的崇拜,對技術施加限制可能會阻礙發(fā)展。他將氣候變化和新興技術描述為“目前最不穩(wěn)定的兩個因素”,需要國際合作。
“國家層面正在回避重大問題,我們確實沒有任何有效的國際合作機制,”瓦拉赫說?!罢l真正在做關于增強技術、關于元宇宙的決定,以及這些決定符合誰的利益?”
今年的論壇由施密特人工智能、新興技術和國家力量計劃共同主辦。該計劃于 2021 年 12 月首次宣布,是國際安全研究的一項新計劃,由 Google 現(xiàn)任技術顧問 Eric Sc??hmidt 和他的妻子、施密特基金會聯(lián)合創(chuàng)始人 Wendy Schmidt 捐贈 1530 萬美元使之成為可能.
介紹此次活動的 Edward Wittenstein 稱這是杰克遜研究所和耶魯大學法學院全球法律挑戰(zhàn)中心之間的“偉大合作”。維滕斯坦是杰克遜研究所國際安全研究主任和講師。
Hathaway 將這個已經(jīng)進入第五個年頭的論壇描述為 Wittenstein 的“創(chuàng)意”。
觀眾中的學生(其中許多來自耶魯大學法學院和杰克遜學院)以及 Zoom 的與會者在每次小組討論結(jié)束時都參加了問答環(huán)節(jié)。
“這絕對值得深思,尤其是因為我來自技術方面,”參加此次活動的 Kelly Zhou '23 在接受采訪時說。“我認為欣賞某些分類的法律影響是件好事?!?/p>
論壇將在 3 月 4 日和 4 月 1 日繼續(xù)舉行第二屆和第三屆會議。