撰稿:澳喜农场—XINYUAN

该图片由Gerd AltmannPixabay上发布

随着人工智能的日趋完善,计算机系统变得越来越复杂,这可能使它们无法获得必要的监督。也可能导致人类的自主性会减弱,因此针对它的监督也显得日益重要。

很多专家也表达了同样的忧虑。北卡罗来纳州杜克大学人类与自主性实验室主管米西·卡明斯问道:”我们将如何能够证明这些系统是安全的?”她曾是美国海军的首位女性战斗机飞行员之一,目前也是一位无人机专家。她称但目前还不清楚如何能怎样做到这一点。“目前,我们还没有想出被大家普遍接受的办法。而且,在没有一个行业标准对这些系统进行测试的情况下,这些技术也很难被广泛推行。

目前,在很多关键领域,像刑事司法系统和医疗保健领域,已经有公司在探索利用人工智能做出法律决定或者在诊断疾病,但一旦把决定权交给机器,我们有可能会面临失控的风险,因为没人能保证这个系统的每一次决定都是正确的。

微软研究院首席研究员达娜·博伊德也称,关于那些正在被写进程序的价值观以及谁将最终为它们负责,这里面涉及到了很严肃的问题。

她说:”监管机构、民间社会和社会理论家非常希望看到这些技术是公平并且符合道德准则的,但这些想法充其量不过是模糊的概念。”

目前,人工智能存在道德困扰的其中一个领域就是工作问题,由于人工智能技术会让机器人承担更复杂的工作并替代更多的工人。

例如,苹果公司和三星集团的供货商富士康科技集团已经宣布,该公司将利用机器人来替代6万名工人。还有位于德国的福特汽车公司,也考虑让机器人和工人一起并肩工作。

目前在许多工厂,人类已经开始和机器人一起工作,有人认为,这种慢慢被机器取代的感觉可能会给精神健康带来极大的冲击。而且自动化程度的提高也会影响到未来的就业问题。可以说对人类是一种重大的影响。

生物伦理学家、美国前总统巴拉克·奥巴马的前医疗顾问伊齐基尔·伊曼纽尔称:”如果要找出给人们的生活带来意义的事情,你会发现有三样:有意义的关系、强烈的兴趣和有意义的工作。

而其中有意义的工作是构成个人身份认同的的重要元素。也是人们得以生存的价值体现。在工厂倒闭引发失业的地区,会出现自杀、药物滥用和抑郁症等各种精神层面的问题。而由此可能需要更多的伦理学家来解决各种问题。

麻省理工学院的法律和伦理学专家凯特·达林认为我们不能指望其他公司遵守道德标准。但如果有适当的监管,会起到帮助作用。

她还指出,包括谷歌在内的许多知名大公司已经设置了伦理委员会,用来监督人工智能技术的开发和部署。她还称:我们不想扼杀创新,但可能已经到了大家都希望创建一些这类组织的时候了“。

但在2021年的9月,Facebook、谷歌和亚马逊联手创建了名叫OpenAI的非营利组织,此公司是针对人工智能所带来的很多安全性和隐私性问题来提供研究或解决方案的。此组织也是旨在研究和推动开放人工智能,并致力于为所有人谋福利的组织。

谷歌的诺维格也声称公开研究机器、学习技术并且通过公开刊物和开放源代码的方式来传播这种技术是很重要的。这样我们都能共享其研究成果。

如果我们想要研究这类的道德标准,非常重要的一件事是需要创建一个由伦理专家、技术专家和企业领导人组成的顾问团队。解决如何利用人工智能技术让我们人类的社会变得更美好。

齐特林还说:“我们要做的是少担心科幻小说中机器人接管地球的局面,多想想如何运用技术帮助人类思考和做决策,而不是完全取代人类的自主性。”

的确如此,很多欧美大片都以人工智能为题材,拍摄出很多人工智能威胁人类的影片。也的确给了人们很多警示,由不得人们不担心,因此,人们的担心也不无道理。笔者假设电影中的情节也不是没有发生的可能,比如说目前的大规模疫苗注射后,假如真的人口大量减少,活下来的也疾病丛生,整个族群被弱化了,有没有可能会被愈发强大的人工智能接管,还好幸亏有爆料革命的无苗族,未来也许真有可能成为了人类能繁衍下去,不会被人工智能接管的最后的希望了。

参考链接:人工智能面临的最大挑战不是技术

编辑发稿:XINYUAN