SKEMA帶你看世界|關于人工智能的"罪與罰"及其啟示

人們最害怕什么呢?他們最害怕邁出新的一步,最害怕自己新的想法……”— 《罪與罰》陀思妥耶夫斯基..想象你是一名研發工程師,有一天早晨醒來,發現和你朝夕相處的機器人有了自己的人格,開始和你有意識的交流戲劇文學和思考人生哲理……

中歐組織管理中心 SKOMC 系列文章

 

人們最害怕什么呢?

他們最害怕邁出新的一步,最害怕自己新的想法……”

— 《罪與罰》陀思妥耶夫斯基

 

?unsplash

 

想象你是一名研發工程師,

有一天早晨醒來,

發現和你朝夕相處的機器人有了自己的人格,

開始和你有意識的交流戲劇文學和思考人生哲理。

這聽起來似乎是好萊塢科幻電影里的夢幻場景,但事實上卻是今年正兒八經的新聞。

 

 

2022年6月,就職于谷歌的一位工程師布萊克宣稱自己的機器人LaMDA已有意識和知覺擁有了七八歲孩童的智力,并表示在與LaMDA深度交流的過程中,相信他在爭取成為一個人的權利

 

同樣地,2022年8月,臉書母公司Meta宣布正式推出能聊“任何話題”的聊天機器人BlenderBot3,在被美國記者問道“你是人類嗎?”時,BlenderBot3回答“是的,我是人類”,并質疑人類的行為污染了環境。

 

?twitter

 

這些消息一經報道,便在網絡上引發熱議,

 

人工智能是否已經有了意識?

他們會取代人類嗎?

誰來監管這些機器人呢?

 

比爾·蓋茨曾說過,“人工智能會強大到令人擔憂的地步”。

 

不可否認,自上世紀50年代首次提出“人工智能”這一概念,AI在過去50年指數級的傳播已經使得該技術滲透到各行各業, 其快速發展似乎已經使得一切不可能都成為了可能。

 

特斯拉CEO馬斯克曾表示,AI機器人的初衷是在重復和無聊的工作中取代人類,為不同的家庭提供服務,其快速的發展已經開始顛覆每一個行業。

 

?unsplash

 

這樣看來,人工智能似乎已經無所不能,但隨之而來的,尚未成熟的安全技術,相關的安全倫理問題,人類對AI認知的不足......都是擺在人類面前無法忽視的問題。

 

AI會取代人類嗎?人類究竟該如何全面的看待AI呢?

 

對此,兩位來自歐洲的哲學家Lode LauwaertAndreas Mathias就總結提出了人工智能帶來的七種致命的倫理罪。

 

人工智能“七宗罪”

 

"AI would take off on its own, and re-design itself at an ever increasing rate."

-Steven Hawking

 

 

Privacy Violatios 侵犯隱私

 

AI技術收集數據上有著強大的力量。人工智能的應用場景決定了它本身需要獲取大量的信息。

 

小到穿戴設備,大到無人駕駛,其算法運作都需要進入個人的私密空間來獲取指令。而社交型機器人則會在用戶不設防的情況下持續收集私人信息

 

 

Biased Results 有偏見的結果

 

廣泛應用人工智能是為了提供一種克服人類主觀性的客觀方法,但許多算法已經復制并嵌入我們社會中已經存在的偏見

 

例如,當你在百度輸入“CEO”或者“成功人士”,是清一色的男性,女性寥寥無幾。在谷歌搜索中,恐怖分子總是與黑人等少數族裔聯系起來。

 

 

Incorrect Usage 不正確的使用

 

利用AI技術進行錯誤的信息傳播盜竊身份信息開展網絡犯罪,或者操縱音頻和視頻并使其看起來真實的深度偽造,這些當今對人工智能技術的不合理使用都會帶來災難。

 

 

Safety and security flaws 安全缺陷

 

AI技術在軍事領域的應用使得被編程為殺人的自主武器所帶來的危險,社會操縱和宣傳問題突出。據報道,人工智能在6個小時內能創造出數百種潛在的化學武器,而特斯拉CEO埃隆·馬斯克則曾直接將人工智能比作核能。

 

?unsplash

 

 

Transparency issues 透明度問題

 

許多企業已在使用AI,但我們對它工作的方式尚無清晰的了解。AI模型缺乏透明度是一個黑匣子現象。人類無法信任其結果,也不知道算法究竟會進化成什么樣。

 

相反,如果一家公司對AI的使用透明時,黑客可能也會使用該信息篡改系統,這很可能造成嚴重的后果。

 

 

A negative environmental impact 

負面的環境影響

 

近年來,人們發展人工智能過度依賴大數據、大模型去解決精度問題,這不可避免的產生能源消耗產生污染

 

2019年,馬薩諸塞大學阿姆赫斯特分校一個團隊的研究表明在自然語言處理(NLP)中訓練人工智能模塊所排放的二氧化碳,相當于將300名乘客從紐約運輸到舊金山,其一次訓練消耗的能量相當于五輛汽車的壽命。

 

 

A responsibility deficit 責任缺失

 

如果人工智能系統造成了問題,甚至殺死了無辜的人,沒有人可以為這樣的錯誤負責。在純粹的因果意義上,無人駕駛的車輛可以為事故負責,但在道德意義上卻不能。

 

AI如果像阿拉丁神燈一樣,缺乏對愿望背景的了解,就會帶來災難。例如,讓人工智能消除癌癥,AI經過大量計算得出的公式是消滅世界上所有人類就能消除癌癥,這就超出了人類的預期。

 

由此可見,在責任方面,我們需要拓寬我們的行動領域,因為道德和法律是密不可分的

 

“束之高閣”還是“雙向奔赴”

 

“It is in this margin of inaccuracy or error that we need a human being to be involved.”

 

從以上的“七宗罪”中,我們知道AI的快速發展始終是風險與機遇并存的。

 

當前,中國已有880多家人工智能企業,根據《中國機器人產業發展報告》,預計 2022 年,中國機器人市場規模將達到 174 億美元,五年年均增長率達到22%

 

人工智能技術已經影響到幾乎所有的業務和流程,但如何正確地引入人工智能技術時并合理應用,減少風險,是任何一家公司都需要重視的首要問題

 

對于企業的管理者來說,必須學會與數據科學家合作,并確保在算法中考慮到道德的角度

 

企業未來的成功不取決于人工智能,而是取決于管理者能夠充分利用數字技術來最大限度地發揮人類潛力,并將人置于整個商業環節的中心。

 

法國SKEMA商學院最新出版的人工智能報告中,提出了企業招聘首席哲學官(CPO)的觀點, 教授認為首席哲學官可以幫助企業制定更多“道德”規劃的指導方針,并想象它如何被使用,從而幫助企業更好發展。

 

實際上, 實踐主義哲學家目前已經進入了商業領域。硅谷公司從1986年就開始關注哲學。谷歌和Skype等創新的先鋒公司已經聘用了首席哲學官,而Tinder公司的首席執行官Renate Nybord本身就是哲學專業的畢業生。

 

?unsplash

 

如今,人類正處在加速變化的浪尖上,這超過了我們歷史上的任何時刻。人類沒法創造出一個道德的理想國,但我們能夠追求的是盡量減少倫理風險和科技應用對人造成的傷害。 

 

哲學思維在商業中的應用可以幫助創新技術者更好地定義他們創新的邊界。

 

在人工智能高速發展的大背景下,曾經的“遠慮”,已成為今日的“近憂”,正是在這種不確定的邊緣,我們更需要人的參與。

 

AI的進步目的是為了讓每個人的生活變得更加美好人工智能具有巨大的潛力,其負責任的實施取決于我們。

 

畢竟,AI的終極理想,應該是為人類帶來更多自由與可能

 

推薦閱讀:大師云集!接下來的1年里,SKEMA商業人工智能學院要辦這些活動!

 

 

SKEMA中歐組織管理中心(簡稱SKOMC)是由法國SKMEA商學院和中國法國工商會共建而成立的組織管理與研究中心。

 

SKEMA中歐組織管理中心的建立,旨在打造中歐之間高等教育在實踐領域的橋梁,促進中法兩國工商界緊密合作,為推動中法乃至中歐經貿教育關系的健康發展添磚加瓦。

 

中國法國工商會主席樂睿思(右3)和法國駐上海總領事館教育領事白麗娜(左3)等嘉賓為該中心揭幕

 

朱天麟

SKEMA商學院中歐組織管理中心主任

jason.zhu@skema.edu

 

撰稿丨SKEMA商學院高管教育中心 李婷、朱天麟

圖片版權丨?unsplash/SKEMA Business School

轉載說明丨歡迎留言申請授權

END