Sunday, April 2, 2023

AI专家讽刺马斯克联署的公开信:忽视实际风险,却关注人类灭绝

 (加美财经,2023-03-31

  按:目前,许多国家正在竞相研发AI,企图利用AI来壮大自己的军事、经济、文化实力,以战胜国内外的“敌人”。在这种局势下,马斯克等人的呼吁犹如缘木求鱼,痴人说梦。

  据路透,四位人工智能专家驳了由马斯克联合签名的公开信。那封信中引用了他们的一些研究,并作为论据要求紧急暂停AI的进一步研究。

       这封信的日期是322日,截至周五已有1800多人签名,信中呼吁在开发比GPT-4 “更强大 ”的系统前暂停六个月。这封公开信称,具有 “人类竞争智能”的人工智能系统对人类构成了严重的风险,并引用了包括大学学者以及OpenAI、谷歌及其子公司DeepMind的现任和前任员工在内的专家的12项研究。

       批评者质疑这封信背后的组织“生命的未来研究所”(FLI),该组织主要由马斯克基金会资助,认为该组织优先考虑的是想象中的世界末日场景,而不是对人工智能更直接和真正的担忧,例如将种族主义或性别歧视的偏见引入了机器人。

       公开信中引用的研究,包括“论随机鹦鹉的危险”,这是一篇著名的论文,由玛格丽特·米切尔共同撰写,她曾在谷歌监督人工智能的伦理研究。她现在是人工智能公司Hugging Face的首席伦理科学家。她批评了这封信,告诉路透社,不清楚什么算作“比GPT4更强大”。她说:“通过将自己许多有问题的想法视为既定事实,这封信宣称了一套优先事项和关于人工智能的叙述,对FLI的支持者有利。现在忽视正在造成的伤害,是我们中的一些人没有的特权。”

       她的合著者提姆尼·格布鲁和艾米丽·M·本德尔在Twitter上批评了这封信,后者将其中的一些主张称为 "不正常"

       FLI总裁马克斯·泰格马克则告诉路透社,他们发起的活动,并非试图阻碍OpenAI的企业优势。他说:“这挺搞笑的。我看到有人说,‘埃隆-马斯克正试图减缓竞争’,”他还补充说,马斯克在起草这封信时没有任何作用,“这不是关于一家公司的事”。

       康涅狄格大学的助理教授舍丽·多瑞·哈科恩,也对公开信引用她的工作当论据表示异议。她去年与人合著了一篇研究论文,认为人工智能的广泛使用已经带来了严重的风险。她的研究认为,当今人工智能系统的使用可能影响与气候变化、核战争和其他生存威胁有关的决策。她告诉路透社: “人工智能不需要达到人类水平的智力,就能加剧这些风险。有一些看起来不会导致人类灭绝的风险真的非常重要,但却没有得到好莱坞级别的关注。”

       当被问及对批评的看法时,FLI的·泰格马克说,人工智能的短期和长期风险都应该被认真对待。他对路透表示:“如果我们引用某人的话,这只是意味着我们声称他们在认可这个说法。这并不意味着他们认可这封信,或者我们认可他们的一切想法。”

       信中提到的加州人工智能安全中心主任丹·亨德利克斯支持信中的内容,他告诉路透,考虑黑天鹅事件是明智的,即那些看起来不太可能发生,但会产生破坏性后果的事件。公开信还警告说,生成性人工智能工具可能被用来在互联网上充斥“宣传和不真实”。

       多瑞·哈科恩说,马斯克签署这封信是相当讽刺的,他引用了民间团体“共同事业”和其他组织的记录,指出在他收购推特平台后,推特上错误信息增加的报道。推特很快将推出访问其研究数据的新收费结构,可能会阻碍相关的研究。多瑞·哈科恩说:“这直接影响了我实验室的工作,以及其他研究错误和虚假信息的人所做的工作。我们是在一只手被绑在背后的情况下运作的。”