最近,生成式AI的影响力不断扩大,不仅拉动NVIDIA市值突破万亿美元,还在不断孕育新的独角兽,然而,一股阴郁的乌云也正在酝酿,来自人工智能领域的公开信试图为人们敲响警钟。
5月30日,超过350名人工智能行业的高管、研究人员和工程师联合在非营利组织“人工智能安全中心”(Center for AI Safety)发布的一份公开信上署名,公开信内容只有一句话:降低人工智能灭绝人类的风险,应该把它与大流行病、核战争等社会风险一样,当做全球的优先关注事项。
这350人中很多都是AI领域的权威人士,比如OpenAI的CEO Sam Altman、谷歌DeepMind的CEO Demis Hassabis,人工智能“教父”Geoffrey Hinton,Anthropic的CEO Dario Amodei等等。
(相关资料图)
其实,在3月份,马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等人就发表联名公开信,呼吁暂停训练比GPT-4更强大的AI,而Sam Altman也曾呼吁建立类似于国际原子能机构一样的组织来加强国际监管。
不过,这次的用词比以前更加惊悚,可能是想提醒人们,AI也许对人类的生存繁衍构成威胁。
从本质上说,AI与很多新技术一样是一把双刃剑,他们联合署名的出发点也有一定的公益性质,但事情也许并不是这么简单。
首先,并不是所有AI权威都参与了署名,比如吴恩达发推回应称:AI是人类应对流行病、气候变化、小行星等很多风险的关键技术,所以应该让它发展得更快而不是更慢。
虽然AI已经在很多领域取得了显著的进展,但离真正意义上的强人工智能,即在所有人类智能任务上都能匹敌或超越人类,还有很长的路要走,因此,我们可能需要对AI的能力有一个更现实的认识,不应过分夸大其可能带来的风险。
实际上,AI与核武器之间有很大区别,核武器的风险是具有很强的破坏性,而AI的主要风险是可能带来的社会变革,如失业、隐私侵犯、虚假信息等等,AI的这些影响是持久并且广泛的,而且在很大程度上取决于人们如何使用AI而不是AI本身。
并且,每隔一段时间就出现一次倡议,已经引起了一些人的抵触,有人就说:“搞出来的是你们,不让搞的也是你们,别闹了!”
看似矛盾的表象之下,可能有一些隐藏的动机,AI的颠覆能力可能会淘汰一些旧的巨头,孕育一些新的赢家,但有潜力成为新赢家的人就可能考虑建立新的竞争门槛。
比如,AI领域的领先者可能会支持更严格的监管,以便保持自己的竞争优势,因为他们已经有了应对这些监管所要求的资源和基础设施。
而对于新进入者或小型公司,这样的监管壁垒可能会阻碍他们发展,因为他们可能没有足够的资源来应对复杂的监管要求。
如果在人工智能领域占据先发优势,就可能形成马太效应,再叠加算法更新和模型训练,就会进一步放大马太效应,而如果在此基础上再附加行业准入门槛,先发者的地位可能就更加稳固。
这就是为什么我们强调现在是“AI的线膛枪革命”时期,线膛枪替代滑膛枪的窗口期是有限的,这次生成式AI变革留给我们的窗口期可能很短暂,因为先行者会不断构筑自己的技术壁垒、规模壁垒和规则壁垒,越到后面就越难进入。
其实,与风险相比,AI创新才是真正的核心,因为AI最大的价值在于具有复制人类专家经验的潜力,能让以前只有少数人可以享受的专家级服务,变成大部分人都能享受的个性化高端服务,也就是我们一直倡导的服务规模化。
而要实现服务规模化,不仅仅需要大模型平台创新,更需要各行各业、大大小小的企业参与应用创新,这样才能真正实现AI的普惠化,让社会大众都可以享受到它带来的便利与实惠。
这就意味着,虽然AI行业监管是大势所趋,但重点是如何避免让监管沦为设定门槛和不当竞争的武器。
所以,重要的不是几句倡议,而是建立一个透明、公正的AI监管制度,而在这一问题上,不能只听某些利益相关方的一面之词,应该更广泛地听取各方的观点。找到一个既能鼓励AI创新,又能有效防止AI风险的解决方案。
(文章来源:第一财经)
标签:
Copyright © 2015-2032 华西兽药网版权所有 备案号:京ICP备2022016840号-35 联系邮箱: 920 891 263@qq.com