SKEMA带你看世界|关于人工智能的"罪与罚"及其启示

中欧组织管理中心 SKOMC 系列文章

 

人们最害怕什么呢?

他们最害怕迈出新的一步,最害怕自己新的想法……”

— 《罪与罚》陀思妥耶夫斯基

 

©unsplash

 

想象你是一名研发工程师,

有一天早晨醒来,

发现和你朝夕相处的机器人有了自己的人格,

开始和你有意识的交流戏剧文学和思考人生哲理。

这听起来似乎是好莱坞科幻电影里的梦幻场景,但事实上却是今年正儿八经的新闻。

 

 

2022年6月,就职于谷歌的一位工程师布莱克宣称自己的机器人LaMDA已有意识和知觉拥有了七八岁孩童的智力,并表示在与LaMDA深度交流的过程中,相信他在争取成为一个人的权利

 

同样地,2022年8月,脸书母公司Meta宣布正式推出能聊“任何话题”的聊天机器人BlenderBot3,在被美国记者问道“你是人类吗?”时,BlenderBot3回答“是的,我是人类”,并质疑人类的行为污染了环境。

 

©twitter

 

这些消息一经报道,便在网络上引发热议,

 

人工智能是否已经有了意识?

他们会取代人类吗?

谁来监管这些机器人呢?

 

比尔·盖茨曾说过,“人工智能会强大到令人担忧的地步”。

 

不可否认,自上世纪50年代首次提出“人工智能”这一概念,AI在过去50年指数级的传播已经使得该技术渗透到各行各业, 其快速发展似乎已经使得一切不可能都成为了可能。

 

特斯拉CEO马斯克曾表示,AI机器人的初衷是在重复和无聊的工作中取代人类,为不同的家庭提供服务,其快速的发展已经开始颠覆每一个行业。

 

©unsplash

 

这样看来,人工智能似乎已经无所不能,但随之而来的,尚未成熟的安全技术,相关的安全伦理问题,人类对AI认知的不足......都是摆在人类面前无法忽视的问题。

 

AI会取代人类吗?人类究竟该如何全面的看待AI呢?

 

对此,两位来自欧洲的哲学家Lode LauwaertAndreas Mathias就总结提出了人工智能带来的七种致命的伦理罪。

 

人工智能“七宗罪”

 

"AI would take off on its own, and re-design itself at an ever increasing rate."

-Steven Hawking

 

 

Privacy Violatios 侵犯隐私

 

AI技术收集数据上有着强大的力量。人工智能的应用场景决定了它本身需要获取大量的信息。

 

小到穿戴设备,大到无人驾驶,其算法运作都需要进入个人的私密空间来获取指令。而社交型机器人则会在用户不设防的情况下持续收集私人信息

 

 

Biased Results 有偏见的结果

 

广泛应用人工智能是为了提供一种克服人类主观性的客观方法,但许多算法已经复制并嵌入我们社会中已经存在的偏见

 

例如,当你在百度输入“CEO”或者“成功人士”,是清一色的男性,女性寥寥无几。在谷歌搜索中,恐怖分子总是与黑人等少数族裔联系起来。

 

 

Incorrect Usage 不正确的使用

 

利用AI技术进行错误的信息传播盗窃身份信息开展网络犯罪,或者操纵音频和视频并使其看起来真实的深度伪造,这些当今对人工智能技术的不合理使用都会带来灾难。

 

 

Safety and security flaws 安全缺陷

 

AI技术在军事领域的应用使得被编程为杀人的自主武器所带来的危险,社会操纵和宣传问题突出。据报道,人工智能在6个小时内能创造出数百种潜在的化学武器,而特斯拉CEO埃隆·马斯克则曾直接将人工智能比作核能。

 

©unsplash

 

 

Transparency issues 透明度问题

 

许多企业已在使用AI,但我们对它工作的方式尚无清晰的了解。AI模型缺乏透明度是一个黑匣子现象。人类无法信任其结果,也不知道算法究竟会进化成什么样。

 

相反,如果一家公司对AI的使用透明时,黑客可能也会使用该信息篡改系统,这很可能造成严重的后果。

 

 

A negative environmental impact 

负面的环境影响

 

近年来,人们发展人工智能过度依赖大数据、大模型去解决精度问题,这不可避免的产生能源消耗产生污染

 

2019年,马萨诸塞大学阿姆赫斯特分校一个团队的研究表明在自然语言处理(NLP)中训练人工智能模块所排放的二氧化碳,相当于将300名乘客从纽约运输到旧金山,其一次训练消耗的能量相当于五辆汽车的寿命。

 

 

A responsibility deficit 责任缺失

 

如果人工智能系统造成了问题,甚至杀死了无辜的人,没有人可以为这样的错误负责。在纯粹的因果意义上,无人驾驶的车辆可以为事故负责,但在道德意义上却不能。

 

AI如果像阿拉丁神灯一样,缺乏对愿望背景的了解,就会带来灾难。例如,让人工智能消除癌症,AI经过大量计算得出的公式是消灭世界上所有人类就能消除癌症,这就超出了人类的预期。

 

由此可见,在责任方面,我们需要拓宽我们的行动领域,因为道德和法律是密不可分的

 

“束之高阁”还是“双向奔赴”

 

“It is in this margin of inaccuracy or error that we need a human being to be involved.”

 

从以上的“七宗罪”中,我们知道AI的快速发展始终是风险与机遇并存的。

 

当前,中国已有880多家人工智能企业,根据《中国机器人产业发展报告》,预计 2022 年,中国机器人市场规模将达到 174 亿美元,五年年均增长率达到22%

 

人工智能技术已经影响到几乎所有的业务和流程,但如何正确地引入人工智能技术时并合理应用,减少风险,是任何一家公司都需要重视的首要问题

 

对于企业的管理者来说,必须学会与数据科学家合作,并确保在算法中考虑到道德的角度

 

企业未来的成功不取决于人工智能,而是取决于管理者能够充分利用数字技术来最大限度地发挥人类潜力,并将人置于整个商业环节的中心。

 

法国SKEMA商学院最新出版的人工智能报告中,提出了企业招聘首席哲学官(CPO)的观点, 教授认为首席哲学官可以帮助企业制定更多“道德”规划的指导方针,并想象它如何被使用,从而帮助企业更好发展。

 

实际上, 实践主义哲学家目前已经进入了商业领域。硅谷公司从1986年就开始关注哲学。谷歌和Skype等创新的先锋公司已经聘用了首席哲学官,而Tinder公司的首席执行官Renate Nybord本身就是哲学专业的毕业生。

 

©unsplash

 

如今,人类正处在加速变化的浪尖上,这超过了我们历史上的任何时刻。人类没法创造出一个道德的理想国,但我们能够追求的是尽量减少伦理风险和科技应用对人造成的伤害。 

 

哲学思维在商业中的应用可以帮助创新技术者更好地定义他们创新的边界。

 

在人工智能高速发展的大背景下,曾经的“远虑”,已成为今日的“近忧”,正是在这种不确定的边缘,我们更需要人的参与。

 

AI的进步目的是为了让每个人的生活变得更加美好人工智能具有巨大的潜力,其负责任的实施取决于我们。

 

毕竟,AI的终极理想,应该是为人类带来更多自由与可能

 

推荐阅读:大师云集!接下来的1年里,SKEMA商业人工智能学院要办这些活动!

 

 

SKEMA中欧组织管理中心(简称SKOMC)是由法国SKMEA商学院和中国法国工商会共建而成立的组织管理与研究中心。

 

SKEMA中欧组织管理中心的建立,旨在打造中欧之间高等教育在实践领域的桥梁,促进中法两国工商界紧密合作,为推动中法乃至中欧经贸教育关系的健康发展添砖加瓦。

 

中国法国工商会主席乐睿思(右3)和法国驻上海总领事馆教育领事白丽娜(左3)等嘉宾为该中心揭幕

 

朱天麟

SKEMA商学院中欧组织管理中心主任

jason.zhu@skema.edu

 

撰稿丨SKEMA商学院高管教育中心 李婷、朱天麟

图片版权丨©unsplash/SKEMA Business School

转载说明丨欢迎留言申请授权

END