Facebook Pixel
訂閱
快速註冊 已是會員,立即登入

為您推薦

加入會員獨享優惠

巴黎奧運採用AI,引發安全與隱私拉鋸戰

張瑞雄
user

張瑞雄

2024-01-22

瀏覽數 7,400+

2024年巴黎奧運,將成為普及型AI監視和安全措施的試金石。圖片來源:取自@Paris 2024臉書
2024年巴黎奧運,將成為普及型AI監視和安全措施的試金石。圖片來源:取自@Paris 2024臉書
00:00
00:00

即將到來的2024年巴黎奧運,將成為一個前所未有的普及型AI監視和安全措施試金石,在公共安全的旗幟下,這些措施恐怕威脅到隱私和公民權利,這是在防範恐怖主義擔憂中,牽涉到安全、個人自由和倫理之間如何平衡的緊張關係。

巴黎奧運當局將進行大規模的實驗,使用自動化的影像和影片分析,為一項鮮少受到辯論的臨時法律打開了大門,允許即時的人群監控系統,以演算法來檢測未定義的「可疑事件」。這樣的作法,設立了一個危險的先例,繞過了正在進行的歐盟AI法規,缺乏對偏見和權利侵犯的保障,為未經驗證的技術開緑燈。儘管如此,普通老百姓還是渴望這種監視,來捕捉像亂丟垃圾這樣的小罪行,顯示公眾對侵犯隱私這種事漠不關心。

事實上,國際奧林匹克委員會對巴黎2024年耗資3.48億美元的安全體系有充分信心,法國動員了數萬名人員,為在全球執法機構之間,出現了前所未有的協作努力,以支持法國當局透過歐洲警察組織等實體,最大限度地提高奧運情報的流動和應對能力,這種整合在國際警察合作中,是前所未見的。

過去的奧運,曾成為採用具有爭議性技術的跳板

但是隱私倡導者認為,由於持續且普遍的AI掃描和分析公共空間,不可避免地侵蝕了公民自由。他們認為,檢測行為異常需要孤立和識別人像,法律上是否允許。批評者還強調AI訓練數據集很可能包含偏見,這可能使未來的人權壓迫成為可能。此外,奧運後保留這些資料和設備,可能會使這些奧運的AI系統,被重新使用於一般的監控,系統也存在如果沒有使用其他的生物特徵,光剛靠臉部辨識的正確性問題。

過去的奧運,曾成為採用具有爭議性技術的跳板,例如藉口購買用於國內鎮壓的設備。2024年的巴黎奧運,似乎準備在合作安全的旗幟下,全球(至少是歐盟)推廣威脅平民隱私的系統,從運動員到觀眾,每個人都將成為沒有監督的、未經檢驗的演算法審查對象。

儘管如此,公眾為了安全,而接受入侵性監視的態度仍在增長,這在歷史上是一種諷刺,考慮到法國文化中對國家權力擴張懷疑的根深柢固。接受奧運安全高於人權的戲劇化轉變,反映了因2015年巴黎暴動等悲劇所因啟的恐慌心理,不過,還是有人要求AI監管必須要透明化,在倫理要求,與安全和權利之間取得平衡。

應建立明確監管機制,確保訊息安全、避免濫權

監控老百姓活動的AI應用,引起了社會對隱私和個人自由的關切,儘管這項技術可能有助於維護公共安全,但也容易濫用權力。在利用AI分析監視影片時,必須謹慎平衡安全需求和個人隱私權。政府和企業應該建立明確的監管機制,確保訊息安全,並避免濫權行為。同時,需要透明度和公開討論,以確保市民能夠了解監控技術的使用目的,以及相關法律和道德標準,以確保科技正確應用在維護社會活動的安全,如奧運。

本文章反映作者意見,不代表《遠見》立場
(作者為台北商大前校長、叡揚資訊數位轉型大使)

4小時線上課程|最具說服力簡報+高質感簡報生成教學|獨家2合1智慧AI簡報術

延伸閱讀

勇往職前 躍競搶手人才起手式
數位專題

勇往職前 躍競搶手人才起手式

當AI以超乎想像的速度趕上人類的腳步,掀起一波職涯新革命,我們必須思考:大學學什麼對未來工作才加分?作為多數學子邁向職場前的最後一哩路,高等教育有責任培養學子的競爭力,一起剖析未來人才關鍵實力。

請往下繼續閱讀

登入網站會員

享受更多個人化的會員服務