关于大模型,咱们真正应该忧虑什么?至少不是马斯克所说的那些

在GPT-4炽热出炉、人工智能军备竞赛方兴未艾的形势下,包含埃隆·马斯克(Elon Musk)和苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)在内的千余名科技领袖签署了一封公开信,恳请研究人员在六个月内暂停开发比GPT-4更强壮的人工智能系统。

首先,面对人工智能,公开信是老套路了。2015年1月,霍金(Stephen Hawking)和马斯克及数十位人工智能专家就签署过一封关于人工智能的公开信,呼吁对人工智能的社会影响进行研究,并阻止研究人员创造出不安全或无法操控的系统。2018 年,安排这一次公开信的生命未来研究所(Future of Life Institute,FLI)还起草过另外一封信,呼吁拟定“针对丧命自主兵器的法令”,签署人当中也有马斯克。

关于大模型,咱们真正应该忧虑什么?至少不是马斯克所说的那些

其次,对签名者的名单要谨慎对待,由于有报道称某些姓名被添加到名单里是恶作剧,例如OpenAI首席执行官山姆·阿尔特曼(Sam Altman)也曾时刻短地现身其中。有些签署者清晰表示并不同意公开信的一切内容,仅仅由于“传达的精力是对的”而表示支撑。当然,更多的人工智能研究者和专家公开表示不同意这封信的提议和办法。

信中说到了对过错信息传达、劳动力商场自动化危险以及文明失控的或许性的忧虑。以下是要点:

* 失控的人工智能

各家公司正在竞相开发先进的人工智能技能,连创造者都无法“了解、预测或可靠地操控”。

信中写道:“咱们有必要问自己:咱们应该让机器用宣扬和不实在的东西充斥咱们的信息渠道吗?咱们是否应该把一切的工作都自动化,包含那些有成就感的工作?咱们是否应该开发非人类的大脑,使其终究在数量上超过咱们,在智慧上胜过咱们,筛选并替代咱们?咱们是否应该冒失去对咱们文明操控的危险?这些决议绝不能托付给未经选举的技能领袖。只有当咱们确信强壮的人工智能系统的作用是积极的,其危险是可控的,才应该开发。”

* “危险的竞赛”

这封信正告说,人工智能公司陷入了“开发和部署”新的先进系统的“失控竞赛”。 最近几个月,OpenAI 的ChatGPT的病毒式流行似乎促进其他公司加速发布自己的 AI 产品。

公开信敦促企业收获“人工智能之夏”的回报,一起让社会有时机习惯新技能,而不是匆忙进入“毫无准备的秋天”。

* 六个月的暂停期

信中说,暂停开发将为人工智能系统引入“共享安全协议”供给时刻。信中还称,“假如无法快速实施这样的暂停,政府应该介入并拟定暂停期”。

公开信表示,暂停应该是从环绕先进技能的“危险竞赛”中后退一步,而不是彻底停止通用人工智能(Artificial general intelligence,AGI)的开发。

一些支撑FLI的人以为,研究人员正处于不知不觉中创造出危险的、有感觉的人工智能系统的边际,就像在《黑客帝国》和《终结者》等流行的科幻电影系列中看到的那样。愈加激进的人士如埃利泽·尤德科夫斯基(Eliezer Yudkowsky)以为,应该无限期暂停新的大规模练习,而且是在全国际范围内暂停。“封闭一切的大型GPU集群(大型计算机农场,最强壮的人工智能在这里得到完善)。封闭一切的大型练习运转。对任何人在练习人工智能系统时被允许运用的计算才能设置上限,并在未来几年内将其下调,以补偿更有用的练习算法。立即拟定多国协议,防止被制止的活动转移到其他地方。”

而剧烈对立的人乃至失去了礼貌破口大骂。我认识的纽约城市大学新闻学教授杰夫·贾维斯(Jeff Jarvis)一扫往常心目中的温文形象,在推特上发帖说:“这真XX的可笑,假如我见过的话,这是#品德惊惧#的一个典型标本:呼吁暂停练习人工智能。谷登堡:停止你的印刷机! 有这么多疑为品德企业家和注意力成瘾者的人士签名。”

公平地说,尽管业界绝不会同意暂停六个月,但人工智能开展眼下的开展将速度置于安全之上,的确需求引发社会关注。我以为咱们需求敲响尽或许多的警钟,以唤醒监管者、方针拟定者和行业领导者。在其他景象下,奇妙的正告或许就足够了,但言语模型技能进入商场的速度比此前人们经历过的任何技能都要快。放缓一下脚步,考虑一下前路,对社会习惯新的人工智能技能是必要的。

但咱们看到的景象恰恰相反,在危险的竞赛中,人人都在加码,由于赌注在加大。“一场竞赛从今天开始”,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)在 2 月 7 日向谷歌发出了应战, “咱们要举动,而且举动要快”。为应对ChatGPT 的成功,谷歌宣布进入“红色代码”企业紧急状态,并将自己的谈天机器人 Bard 推向商场,在一次演示中表示,它将“从头校准”在发布基于 AI 技能的东西时乐意承当的危险水平。在 Meta 最近的季度财报电话会议上,首席执行官马克·扎克伯格(Mark Zuckerberg)宣布他的公司目标是“成为生成式人工智能的领导者”。如此热浪滚滚,技能带来的过错和损害必定有所添加——人们对人工智能的对立也会添加。

人工智能安全草创公司SaferAI的首席执行官西米恩·坎珀斯(Simeon Campos)说,他签署这封信是由于,假如连这些系统的发明者都不知道它们是怎么工作的,不清楚它们有什么才能,也不了解对它们的行为怎么进行约束,那么就不或许管理系统的危险。 “咱们正在将这类系统的才能扩展到史无前例的水平,在全速竞赛中对社会产生变革性影响。有必要放慢它们的开展速度,让社会习惯并加速替代性的AGI架构,这些架构在设计上是安全的,而且能够正式验证。”

公开信的签署者、纽约大学名誉教授加里·马库斯(Gary Marcus)信任,这封信将成为一个转折点。“我以为这是AI史上——或许也是人类史上——一个十分重要的时刻。”这个恐怕言过其实了。公开信在一些重要的地方是过错的。

信中说:“正如很多研究标明的那样,具有人类竞争力的人工智能系统会对社会和人类构成深远危险。”其实危险更多来自于大型言语模型(large language model, LLM)在一个压榨性系统中的运用,这比设想的人工智能反乌托邦远景要详细和紧迫得多。

不论咱们多么惊叹LLMs的“智能”,以及它的学习速度——每天都有各种十分进取的创新出现,微软的一组研究人员在测试了GPT-4之后乃至报告说,它闪现了通用人工智能的火花——然而LLMs在本质上不或许具有自我意识,它们仅仅在巨大的文本库中练习出来的神经网络,经过识别模式来产生自己的概率文本。危险和损害从来都非源出强壮的人工智能,相反,咱们需求忧虑的是,大型言语模型的权利会集在大玩家手中,仿制压榨系统,破坏信息生态系统,以及经过糟蹋动力资源破坏自然生态系统。

大公司对它们正在做的事情变得越来越神秘,这使得社会很难抵御或许出现的任何损害。公开信没有说到社会正义,而像OpenAI这样的公司依赖于全球南边国家的剥削性劳动,在那里运用时薪不到 2 美元的肯尼亚外包工人来检查有害内容,包含仇恨言论和暴力,以教导人工智能防止这些内容。此外,还有人工智能用于操纵的或许性:现在已经存在经过个性化对话影响活动的技能,这些活动依据用户的价值观、兴趣和布景来定位用户,以推进出售、宣扬或过错信息。也就是说,人工智能驱动的对话影响有或许成为人类创造的最强壮的有针对性的说服方法。正如马库斯所说,他并不同意其他人对智能机器超出人类操控的忧虑,愈加忧虑的是被广泛部署的“平庸的人工智能”,比如被犯罪分子用来诈骗人们或传达危险的过错信息。

// 编注:传统的“南边”“北方”概念出现在上世纪五六十时代,在殖民地解放运动如火如荼的布景下,一些脱节殖民桎梏走上独立开展路途的国家开始运用“南边”,来标明开展中国际与工业化国家代表的“北方”之间存在系统性不平等。

其他问题包含隐私问题,由于 AI 越来越能够解说大型监控数据集;版权问题,包含 Stability AI 在内的公司正面对来自艺术家和版权一切者的诉讼,他们对立未经许可运用他们的著作来练习 AI 模型;动力消耗问题,每次提示 AI模型时,它都需求动力。人工智能模型运用与游戏计算机相同的强壮 GPU 处理器,由于它们需求并行运转多个进程。

公开信烘托人工智能的末日图景,自身也吊诡地充满了人工智能的炒作,使咱们更难解决实在的、正在产生的人工智能损害。在这方面,公开信基本上构成了一种误导:把大家的注意力引向假定的LLMs的权利和损害上,并提出一种十分模糊和无效的解决方法,而不是着眼于此时此地的损害并推进解决相关问题——例如,在触及LLMs的练习数据和才能时要求更多的透明度,或许就它们能够在何处和何时运用进行立法。

公开信说到“人工智能将引起的戏剧性的经济和政治紊乱”,实际上,人工智能并不会引发这一切,技能背面的企业和危险投资公司却会。它们希望尽或许地赚取更多的钱,却很少关心技能对民主和环境的影响。骇人听闻者大谈特谈人工智能形成的损伤,已经让听者觉得并不是“人”在决议部署这些东西。

碰巧地是,OpenAI也忧虑人工智能的危险。但是,该公司希望谨慎行事而不是停下来。“咱们希望成功应对巨大的危险。在面对这些危险时,咱们供认理论上看似正确的事情在实践中往往比预期的更古怪”,阿尔特曼在 OpenAI 关于规划通用人工智能的声明中写道。“咱们信任咱们有必要经过部署功能较弱的技能版原本不断学习和习惯,以最大限度地削减‘一次成功’的状况。”

换句话说,OpenAI正在正确地遵循人类一般的获取新知识和开发新技能的途径——即从重复试验中学习,而不是经过超自然的先见之明“一次成功”。这种做法是正确的,一起,把人工智能东西交给普通大众运用也是对的,由于“民主化的访问将导致更多更好的研究、分散的权利、更多的利益以及更多的人奉献新主意”。咱们仅仅一起也需求人工智能实验室供给关于练习数据、模型架构和练习制度的透明度,以便全社会更好地研究它们。

微软说它是“由以人为本的品德原则驱动的”;谷歌说它将“大胆而负责任地”向前迈进;而OpenAI说它的任务是用技能“造福全人类”。咱们看到许多这样的公司推出了强壮的系统,但也在某种程度上推卸责任,而且不太清楚它们将怎么管理自身而成为真正的担责者。时刻会告知咱们这些宣言是否会有举动的支撑,或许充其量仅仅谈天而已。

原创文章,作者:leping,如若转载,请注明出处:https://www.zhjiashun.com/zjsb-11760.html

(0)
上一篇 2023年4月2日 00:35
下一篇 2023年4月2日 00:36

相关推荐