人之为人的要素是什么?对于这个问题,包括以色列历史学家尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)[1]和OpenAI创始人萨姆·阿尔特曼(Sam Altman)[2]等著名人士在内的许多人回答说:是“幽默”、“想象力”和“情感”。我们认为,这些答案不仅体现出哲学和神学方面的幼稚,而且终归是失当的,因为人的决定性特征更在于意识:它也被普遍视为人工智能(AI)研究中的“圣杯”。

在本文中,我们希望说明的是,所谓“生成式人工智能” 从原则上讲不可能像我们一样聪明,也就是说,机器永远不会拥有“自我意识”。当然,需要对这些论点进行更详细的阐释,以避免陷入反科学思想和“教权式傲慢”:这是两个自现代以来神学家偶尔坠入其中的陷阱。

根本问题

在进入这一话题之前,让我们先来回顾一则趣谈。两位智者漫步于溪边,对着微波荡漾的水面出神。突然,其中一位若有所思地说:“我多想能像水中的鱼儿一样快乐!”。另一位却反问道: “你怎么知道鱼儿是快乐的呢?你又不是鱼”。前者反唇相讥:“你怎么知道我不了解这种乐趣呢?你又不是我”。

这个故事恰到好处地表达了当今人工智能研究中极具争议的问题之一:我们怎么知道如今的机器的确“智能”?计算机会比创造它的人类更智能或更具创意吗?有资格对这些问题做出定论的又是谁?

创造智能机器人的可能性当然不是一个新问题。恰恰相反,这在过去几十年中始终是小说家和电影制作者在科幻主题上发挥想象力时大显身手之地。在此,我们希望以三部影片为参考,它们如今已是经典:

1) 《2001太空漫游》是一部1968年的美国科幻电影,它获得了极大成功。该片闻名遐迩,因其原创性电影解决方案而在电影文化中留下了永久的印记。同时,该片的剧情也非常吸引观众:例如,这部巨片的主角之一是一台名为“哈尔”的超级计算机,它无所不能,具有自己的个性,并突然对自己的创造者发起反抗,控制了宇宙飞船(它通过读唇语而窃取了人对付自己的策谋),只有在经历了重重困难和情感起伏之后,它才最终被降伏。

2) 整个中年一代都会记得1977年上映的最初版《星球大战:新希望》(以下简称《新希望》)。这部影片中的主要“角色”之一是C-3PO,一个憨态可掬的人形机器人,他在银幕上喋喋不休地咕咕叨叨,不仅会表达情感、与自己的机器人伙伴交朋友,有时甚至也会与他发生“争吵”。他形影不离的伙伴名叫R2D2。对于当今致力于社会性机器人领域的设计师们,这部影片是一个告诫,它实际上向我们展示了这样一个事实:机器并不一定要像人(humanlike)一样被爱或是引起共情,而是只要能做到“良善”并“乐于助人”便已足够,当然,如果具备对人类有用的特殊技能也没什么坏处。由于这些机器人的确具备这些品质,赢得了无数观众的喜爱,成为整整一代人心目中的偶像人物。

3) 让我们再来回顾一下《终结者2:审判日》,一部为随后一代人所钟爱的经典影片。这部摄制于1991年的电影中有这样一个场景:由阿诺·施瓦辛格(Arnold Schwarzenegger)扮演的“终结者” 为追踪与他作对的摩托车手而赤膊走进一个酒吧,他先是礼貌地要求对方把衣物和摩托车还给他,但在遭到拒绝后,他只好强行夺回。至此,人不得不为求生而与“智能”机器人展开殊死搏斗的反乌托邦思想达到了高潮。

“智能计算机”问题似乎比以往任何时候都更备受关注。有些人声称,几十年前的科幻设想如今已成为现实,另一些人则认为这将在不久的将来发生[3]。如今,整个“人工智能产业”都建立在越来越智能化的计算机的理念之上,正如我们经常从媒体上听说的那样,OpenAI、DeepMind和Anthropic的专家们正在坚持不懈地开发“通用人工智能”(Artificial General Intelligence),即强人工智能或人类水平的人工智能,这也许将代表某种另类,一个科研的新起点。

这里面所设计的利害关系非同寻常:即使是最温和的观察家也警告说,人工智能具有不可估量的战略和地缘政治意义:谁能在人工智能“军备竞赛”中胜出,谁就能掌控世界的未来[4]。但是,人类生存难道真的如同煽惑造势的媒体所形容的那样岌岌可危吗?如果答案是肯定的,那么又是在哪种意义上?为了澄清这些问题,我们首先必须进行一个简要的相关分析。

什么是机器意识?

根据OpenAI官方网站上的定义,“通用人工智能”(Agi)是指“在大多数具有经济价值的工作中胜过人类的高度自主系统” [5]。这个定义的最大优点是简短而具体(因此相对而言易于验证);但缺点是过于简单化,以至在哲学角度上有失妥当。如果IBM的深蓝超级计算机在1997年击败了国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov),这是否意味着它比后者更智能?另外,当2016年AlphaGo战胜世界围棋冠军李世石(Lee Sedol)–从而对亚洲人的内心造成了在欧洲难以想象的创伤–这是否也可以被视为计算机比世界顶尖围棋手更智能的庄严宣告?最后,如果ChatGPT比企业秘书处更善于规划商务旅行,那么,仅仅因为机器在某项具有经济价值的工作上做得更好,就真的可以认为它比人更智能吗?或者,是否像某些人所声称的那样,这些机器也具有自我意识和感知?显然,对这些提问的答案涉及到一个诠释性问题,取决于我们对“智能”和“意识”(或“自我意识”)的理解。由于这些概念的含义未得到最终定义,我们的探索需要超越科学范畴,进入适宜的哲学和神学领域。

澄清概念的尝试

当然,计算机的智能问题并不新奇。为了更精确地定义智能,“心智哲学家”已不懈地工作了数十年。他们的研究通常将智能分为三个主要组成部分或方面,即:意识(coscienza)、感知(percezione)和自我感知(autopercezione)。

1) “意识”(consciousness)是已经被人深入探讨的问题,这些人中的一位是美国哲学家托马斯·纳格尔(Thomas Nagel)。他在1974年发表的题为《做一只蝙蝠会是什么样?》的文章中指出,“感觉“只有在具有意识的情况下才会发生。在他的一个著名论述中,“做一只蝙蝠是什么感觉?”这一问题只能对蝙蝠提出,而对烤面包机则毫无意义。因为二者的区别在于,蝙蝠显然具有(为动物所特有的)某种意识,而洗衣机或烤面包机则不具备这种意识。意识因此而必须被视为一种连续(continuum) [6]。人类意识之高于蝙蝠的意识,是因为人类也具有对自我的意识;海豚和猴子所体现的是介于人类与蝙蝠之间的一种中间状态,因为它们能从镜子中认出自己,这说明它们具有一定程度的自我意识,虽然这种意识的水平明显低于人类,但却超越其他动物[7]

2) 人类智慧的另一个组成部分是“有知觉(sentience),即我们所拥有的可以意识到自己的感知和情感的能力。这也是人类在与动物相比之下所独有的一种能力:没有任何可提供的证据能够表明其他物种也能自觉地意识到自己的感知和感受。当然,在类比意义上,计算机也可以感知,因为我们可以创建一种算法,使机器人在视野范围内识别出黄色物体,从而感知这一特性并对此做出反应。以同样方式,也可以教会机器人感知和识别敌意行为,并在必要时对攻击作出侵略性的反应。然而,这并不意味着机器懂得黄(颜色)是什么,也不意味着它知道侵犯是一种情绪。

3) 最后,关于智能的讨论还必须涉及“自我意识”(self-awareness)。在英文中,self-awareness一词与consciousness(意识)有所不同因为它不仅是一种认知直觉,而且也是一种“对自己的身体的意识”(body awareness)。这种身体意识也可以在不同层次的动物生活中观察到。就人类而言,“自我意识”是指意识到自身是一个独立于他人的个体,有自我的想法、决定和观念。这里所涉及的能力高于自我表现(autorappresentarsi)能力,而后者是在高等哺乳动物身上也可以观察到的一种能力(例如,对一只学习手语的大猩猩Koko进行的实验就证明了这一点)。我们应该注意到,即使现代计算机操作系统或调试器(debugger)同样能够自我表述,但这仍然不能等同于意识、自我决定或自我感知。

严格意义上的意识–作为认知、感知和自我感知–至少截止目前为止,是一种人类所独有的存在形式。只有当所谓“通用人工智能”[8]不仅在假设中,而且在现实中得以实现时,这种情况才会改变,也就是说,至少要创造出一个能够完成人类所能够完成的任何脑力任务的“智能机器人”,也就是说,它也具有如上文所述的意识、感知和自我感知。许多未来学家认为,目前存在的诸如ChatGPT等主要语言模型都是这种通用人工智能诞生的前兆或“火花” (sparks) [9]。然而,我们的观点与大多数学者相同,即:实现这一目标从原则上讲是永远不可能的。

“勇敢的新世界”?

毋庸置疑,人工智能研究已经取得了不凡的成果,其数目之多不胜枚举,其中包括:自动驾驶、机器人导航、战斗机驾驶;多种语言读、写、说;识别光学字符、将语音翻译成文字、将文字翻译成其他语言;计算机编程;创作艺术作品(从拍摄照片到创作视频,甚至根据口头描述的指令进行创作)[10];创作和演奏音乐曲目;清理音频资料;起草和监督协议;制定商业与财务计划;通过聊天机器人执行消费者服务功能及商品推荐;天气预报;股市预测;生物识别(面部、指纹和虹膜识别);读唇语;手写识别;情绪状态分析(包括以文本或面部表情为依据的分析);欺诈检测;手写、辅导、学术论文写作和评估;剽窃检测;确定医疗诊断;药物研发;交通预测;游戏活动(国际象棋和围棋);开发新游戏;执行虚拟协助任务;进行有意义的对话,等等[11]

上述项目令人叹为观止,而且如果考虑到随着现有功能的改进,人工智能发展可能很快就出现更进一步的可能性,这种惊讶的效应就会愈发强烈。例如,人工智能可能会在不久的将来为人们提供快速和高质量的医疗保健服务(从诊断到老年护理),帮助解决人类于今所面临的一些当务之急(从发现癌症治疗方法到减轻气候变化影响),提供高质量和个性化的公共教育(并推进现代教育学优势的民主化),等等。

然而,为了避免过度乐观,我们也必须谨记结果同样可能适得其反。智能武器系统可以损害数百万人,深度伪造(deepfake)信息(如大规模炮制的虚假视频)、生物识别监控(biometric surveillance)预测性警务(predictive policing)可能会严重危及现有民主制度的稳定,并促生一种历史上前所未有的社会控制:“监控型国家”(surveillance state)[12]。我们显然无法准确预测未来的发展方向,但有一点可以肯定,那就是:数十年以后,人类生活的世界将与我们的世界具有很大差异,这种差异的程度将超乎我们的想象。

人类与新技术的结合已经引发了一系列社会、法律和伦理问题。其根本原因显而易见:人工智能是危险的,因为它涉及到我们人类。而我们人类会滥用一切,包括算法和机器人。我们人类物种,正如社会心理学家所警告的那样,不仅能合作,而且会竞争。作为人类,我们经常会在自身利益的驱使下做出自相矛盾和非理性的决定,并有可能相互利用,甚至相互残杀。天主教神学传统在描述这种状况时指出,尽管天主创造了很好的人(创 1:31),但在堕落之后(参见创 3:1-24),人的本性变得败坏,其意志也倾向于邪恶。

侵犯和好战行为的背后往往隐藏着种种焦虑、恐惧以至自卫机制[13]。这一原因足以使我们认识到,那种认为可以从世界上消除人所制造的邪恶–罪–的想法可谓乌托邦式的想入非非。战争冲突注定会继续存在于我们中间。当然,罪在救赎史中有一个角色–正如“战争推动历史”这一说法–但是,将诸如军事战略决策之类生死攸关的重大问题交付给智能机器将是一个致命的失误。整个人类肩负着我们物种前途的职责。因此,应该通过一个民主的世界政府来常规化地管理人工智能及其在我们生活中的作用[14]。21世纪的技术发明不能在20世纪所制定的法律基础上运行[15]

智能机器人?

当今的机器人究竟有多智能?2022年6月,谷歌研究工程师布莱克·莱莫因(Blake Lemoine)在对大规模语言模型LaMDA(对话应用程序的语言模型,The Language Model for Dialogue Applications)进行伦理测试时声称,该算法已经具备自我意识,变得有知觉并能显示真实的情感。2022年7月,莱莫因“因违反公司保密规则”而被公司辞退[16]

这位研究者的观点遭到大多数人工智能从业者的反对。例如,贝勒大学(Baylor University)的计算机工程师罗伯特·马克斯(Robert J. Marks)不仅在与莱莫安的辩论中提出了有说服力的论点[17],而且以令人信服的方式指出,计算机智能无法与人类思维相提并论。他在Non-computable You[18]书中阐述了自己包含神学内涵的哲学观念,他深信世界上存在非算法和不可计算现实的理由。这些现实包括认知功能,比如创造力、理解力和感知力,也包括复杂情感,比如爱、共情和同理心;如果能够正确地理解这些心理功能,其中的每一种都是人类独有的现象。

此外,即使是从事人工智能研究的认知科学与技术科学代表,似乎也越来越倾向于认识到自身学科的局限性。科学家的自我认知与真正的艺术家一样[19],通常要比外行公众对他们的普遍评价更为谦和:他们知道自己并非无所不能。

“碳沙文主义”?“蒙昧教权主义”?

我们认为,断言人工智能永远不会具有人类智能相当危险。因为一个这样的断言会使我们立即被指责为“技术悲观主义者”或“碳沙文主义者”。用麻省理工学院宇宙学家马克斯·泰格马克(Max Tegmark)的话说,对于以硅为基础的机器智能而言,这其实是一种不公平的对人类物种的偏爱[20]。倘若有人以基督徒之名在公开场合呼吁人们警惕过度的“技术乐观主义” ,那就更会增加这种危险。这种人会轻易地被冠以“守旧者”(remainer)、“蒙昧保守派”、“进步的敌对者”及“教权反动派”之名。必须通过谨慎的推理来避免类似指责。

我们已在上文中谈及,“智能”这一概念并不拥有“永恒”的含义,它实际上是一个连续体(continuum):具有低级和高级的实现形式。因此,将其低级表现形式称为“智能”虽然并不确切,但是能被接受的。出于同样道理,我们可以谈论“人工智能”议题。但与此同时,必须指出的是,尽管这种发展迄今已经取得优异成果并且这种成果也会在将来继续出现,但它从原则上讲是有限的,永远不会达到人类智能的水平。机器人不会像我们一样有意识,不会像我们一样能够感知,也不会有自我意识。

意大利现代晶体管“之父”费德里科·法金(Federico Faggin)认为,“一个Chat GPT并不理解自己所说的话,而一个有意识的存在却可以”,因为“理解不是一种算法现象”[21]。罗杰·彭罗斯(Roger Penrose)是最早提出这一怀疑论观点的权威人士之一,他在1989年出版的The Emperor’s New Mind(《皇帝新脑》)[22]书中将强人工智能描述为一个赤身裸体的皇帝,虽然试图让自己被视为智能,但其意识与我们的意识迥然相异,因为人类意识不可能发自一台全硅计算机。

这一切是否意味着“碳沙文主义”?我们可以认为,这其实是向更全面的方法论迈进的第一步。事实上,正如约翰·塞尔(John Searle)和其他哲学家所指出,意识不能被简化为单纯的“信息处理”。阿尔特曼认为,既然人工智能可以比人类更好地推理、以更智能的方式讲话、以更快的速度计算,并在许多其他领域胜过人类,那么它的智能也就超乎人类。假如我们将智能定义为每秒的运算速度,那么阿尔特曼的说法当然无可非议。但是,谁能证明人的智力完全以我们大脑每秒所完成的运算为依据呢?这种无端的说法毋宁说是归纳思维的一个特征,虽然这种思维在技术革命初期展示了对自然科学发展的作用,但却不足以描述整个世界的全貌。

关于人工智能的一些反思

在这方面,我们可以20世纪最具影响力的哲学家之一马丁·海德格尔(Martin Heidegger,1889-1976年)为参照。海德格尔对技术本质的思考以其对“存在史”的广泛批判为背景,他在上世纪中叶便已感受到我们文化中的变化,这种变化表现为被他称为“集置”(Gestell)的技术世界的构建[23]。他正确地区分了“沉思”(das besinnliche Denken)和“计算性思维”(das rechnende Denken[24],而计算性思维是一种非人性化的文化范式,因为其最终目的是通过对现实的占有、强行支配和改造而实现对世界的控制。这种“技术官僚”范式–对其最重要的批判可参见教宗方济各(2015年)的通谕《愿祢受赞颂》(Laudato si’,简称LS)[25]–正在我们当前地球文明发展的技术-技术官僚阶段迅速蔓延,人们有理由担心ChatGPT和其他可用人工智能的应用将进一步增强非人化和扭曲人性的效果。

在此,作者希望补充一点个人的反思。我在致力于所谓“人工智能”这一话题已有一段时间之后才意识到,自己之所以不愿将机器智能与人类智能相提并论,实际上是出于神学方面的原因:我无法接受的想法是机器人智能有朝一日可能会赶上并在一定时间内超越人类在各方面的能力,因为根据已经确立的哲学和神学论点,我同样也不相信人有朝一日能成为神。我认为,超级计算机永远无法获得与我们人类相同的体验,因为它们既不拥有人的身体,也不具备“环境”,它们周围没有其他人类。

结语

最后,重要的是必须再次强调,这既不是贬低迄今为止的技术成就,也不是给未来的进步设置障碍。实证研究的结论不言自明。例如,加利福尼亚大学的心理学和统计学研究人员已经证明,大型语言模型已经在许多生活领域中超越了人类(Chat-GPT3甚至还能在某些创造性任务中超越人类)[26]机器学习(machine learning)能够创造“奇迹”。需要考虑的是,孩子们也是在与其他人,尤其是与父母的不断互动中长大成人的。因此,不能排除当我们与聊天机器人(chatbot)交谈时,我们可以使它们“社会化”,即:我们教它们如何做人。无法排除聊天机器人会在这种互动过程中发生某些改变并随着时间的推移而获得(以至拥有)某种意识的可能。但无论如何,可以肯定的是:这种意识的性质与我们的意识截然不同,它并不会达到自我意识的水平。

埃隆·马斯克的假设是,他正在开发的TruthGPT(这一名称本身就是一个乌托邦)最终不仅会对宇宙发生兴趣,而且可能会对我们感到好奇,并像我们人类自发研究猿类那样地研究我们[27]。不过,这种猜测可以被归类为炒作(hype),并不具备任何实证依据。

实际上,科幻小说家和高科技(high-tech)大师对具有自我意识的机器人的猜想是一种拟人化的意念:而这不过是我们的智能在我们创造的算法中的投影。总之,机器人也许确实能够通过与我们交谈而获得某种意识或智能,但由于它们既没有肉体,也没有社会关系–因此无法像我们一样体验它们的“环境世界”(Umwelt)和“共有世界”(Mitwelt)–它们如此发展出来的“意识”或“智能”永远不会与我们的意识和智能等同,也就是说,本身无法演变为自我意识或自我认知。

  1. 尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)认为,“人是会讲故事的动物,也就是说,他们拥有想象的禀赋”。参见 www.youtube.com/watch?v=I1aNsAAImZU
  2. 当被问及是什么使我们成为人类时,萨姆·阿尔特曼仅以一个词作出回答:“情感”。请参阅 «OpenAI CEO Sam Altman and CTO Mira Muration on the future of AI and ChatGPT», in www.youtube.com/watch?v=byYlC2cagLw
  3. 杨立昆(Yann LeCun)认为,“我们离人类水平的人工智能还很遥远”。参见https://ai.meta.com/blog/yann-lecun-advances-in-ai-research
  4. 参见A. Zegart, «Open Secrets: Ukraine and the Next Intelligence Revolution», in Foreign Affairs,2023年1-2月,第58页。
  5. « OpenAI Charter», in openai.com
  6. 参见Th. Nagel, «What is it like to be a bat?», in Philosophical Review 83 (1974) 435-450 (in it. Cosa si prova ad essere un pipistrello?, Roma, Castelvecchi, 2020).
  7. 参见J. M. Plotnik – F. B. M. de Waal – D. Reiss, «Self-recognition in an Asian elephant», in Proceedings of the National Academy of Sciences, vol. 45, n. 103, 2006, 17053-17057; 关于哲学方面,参见A. Turay, Kozmológiai antropológia, Szeged, A katolikus hittudományi főiskolák jegyzetei, 1987.
  8. 创建Agi是一些研究及诸如OpenAI、DeepMind和Anthropic等人工智能企业的首要目标。
  9. 参见«Sparks of Artifical General Intelligence: Early experiments with GPT-4», in https://arxiv.org/abs/2303.12712
  10. ChatGPT、Bing Image Creator和Midjourney也可以根据任何文字描述而创制图像。
  11. 我们其实应该将上述所有概念加上引号,以标明ChatGPT、Bard、LaMDA及其他主要语言模型与人类智能之间的区分。人工智能之所以被称为“智能”,不过是出于便利或营销的缘故
  12. 参见S. Talty, «What Will Our Society Look Like When Artificial Intelligence Is Everywhere?», in www.smithsonianmag.com/innovation/artificial-intelligence-future-scenarios-180968403
  13. 参见A. Kurpatov, »Сознание ИИ. Как искусственный интеллект решает задачи планеты | Чёрное зеркало c Андреем Курпатовым«, in www.youtube.com/watch?v=9LgADeuWQcc
  14. 参见T. Harris, «AI: Grappling with a New Kind of Intelligence», in https://www.youtube.com/watch?v=EGDG3hgPNp8
  15. 参见F. Patsch, «“L’intelligenza artificiale generativa” e il nostro futuro. Una urgente necessità di regolamentazione», in Civ. Catt. 2023 IV 313-325.
  16. 参见«Blake Lemoine: Google fires engineer who said AI tech has feelings», in www.bbc.com/news/technology-62275326
  17. 例如,当LaMDA与布莱克·莱莫因“聊天”时回答说让他感到快乐的是与家人在一起,对此,马克斯在指出其荒谬之处时声称,“人工智能”不过是在剽窃互联网上的内容而已,因为LaMDA并没有家人。参见R. J. Marks, «Is ChatGPT conscious? The Agenda», in www.youtube.com/watch?v=-j_oHZ3SvIk&t=16s
  18. 参见R. J. Marks, Non-Computable You: What You Do That Artificial Intelligence Never Will, Seattle (WA), Discovery Institute Press, 2022.
  19. 参见H.-G. Gadamer, Verità e metodo, Milano, Bompiani, 2001, 117.
  20. 参见M. Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, New York, Knopf, 2017 (in it. Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano, Raffaello Cortina, 2018).
  21. F. Bastiani, »Faggin: “L’AI non avrà mai coscienza. ChatGPT? A differenza nostra non comprende ciò che dice” «, in https://startupitalia.eu/tech/faggin-lai-non-avra-mai-coscienza-chatgpt-a-differenza-nostra-non-comprende-cio-che-dice/
  22. 参见R. Penrose, The Emperor’s New Mind: Concerning Computers, Minds and The Laws of Physics, Oxford, Oxford University Press, 1989 (in it. La mente nuova dell’imperatore. La mente, i computer e le leggi della fisica, Milano, Rizzoli, 1991).
  23. 参见 M. Heidegger, L’abbandono, Genova, Il Nuovo Melangolo, 1983, 27-43.
  24. 参见同上,第30页。
  25. 具体内容可参阅LS,第106-114条。关于通谕的“海德格尔”根据,参见F. Patsch, «Heideggerian Foundations in Pope Francis?», in J. Azetsop – P. Conversi (edd.), Foundations of Integral Ecology, Roma, Gregorian & Biblical Press, 2022, 343-384。2024年1月8日,在对派驻罗马教廷外交使团的传统新年致辞中,教宗方济各在一个重要的段落中回顾了完全聚焦于“人工智能”主题的《世界和平日致辞》,他将人工智能定义为“未来一些年中最重要的挑战之一”。
  26. 参见T. Webb – K. J. Holyoak – H. Lu, »Emergent analogical reasoning in large language models«, in Nature Human Behaviour, vol. 7, 2023, 1526-1541.
  27. 参见«TruthGPT: Elon Musk usa l’AI per comprendere la vera natura dell’universo», in Cryptonomist (https://cryptonomist.ch/2023/04/20/truthgpt-scoperta-ai-elon-musk), 20 aprile 2023.。