当前,以ChatGPT为代表的AI大模型,涌现出了越来越多令人难以置信的能力,这让越来越多的人对这场AI能力竞赛感到恐惧。上游新闻注意到,无论是支持AI还是反对AI的人,都承认一个事实:AI将深刻影响人类历史。在这个历史关头,每一个人都需要扪心自问:放任还是监管,拥抱还是禁绝,前进还是后退?“To be, or not to be, that is the question.”
(资料图片仅供参考)
编剧和美工成首批“受害者”
当地时间2023年5月3日,美国好莱坞约1.15万名电影和电视编剧走上纽约和洛杉矶街头罢工,呼吁提高薪资,要求公平的合约,拒绝给AI打工。据报道,美国编剧协会WGA先前与主要电影制作公司和流媒体平台争取加薪谈判破裂后,宣布了此次罢工。罢工导致许多美国主流电视节目停播,一些电视剧与电影将延期上映。
这是自2007年以来,美国娱乐业首次出现的大规模罢工。
近年来,AI的快速发展横扫各个领域,包括娱乐业。本次罢工也受到AI创作工具的冲击影响。在此次谈判中,WGA要求制片公司确保编剧不会被强迫改写AI创作的剧本、利用AI改写之前编剧创作的旧剧本的要求,但也以谈判破裂而告终。
编剧们的罢工标语写得很有梗,“AI无法取代编剧”“用AI替代高管”“AI没有灵魂”“我让chatgpt写一个标语,但它很烂。”
事实上,虽然科技互联网公司在人工智能大模型方面都在All in,但对AI表示出担心的不仅仅是美国编剧。在中国,游戏行业的ACGN从业者对于AI的看法也是极其复杂的。
杭州一家知名游戏公司的原画师最近刚被裁员,不愿透露姓名的他说:“美术这行算是完了。”他不认为AI可以直接替代画师,但AI作图师或许可以。据他观察,他所在的城市“一半以上的新招美术岗位都是AI作图师”,月薪8k是他月薪的1/3。
某公司招聘截图
基础岗位首当其冲面临压力,其次是美术外包处于“能砍则砍”的状态。接下来他准备做点实体小生意,他觉得“图可以AI画,饭不能AI吃”,对于美术行业的前景,他看不到一点乐观。
一家漫画公司负责人表示,“漫画领域对于AI既期待又谨慎”,他们希望AIGC能够提升产能,增加IP改编漫画的数量,但是对于如何用当前的AIGC工具提升产能又并不了解,画师们对于使用这类工具兴趣不高,担心内容里加入AIGC会引起漫画家的反感。
另一家漫画公司认为,“作为漫画行业从业者,当下对于AIGC很难公开表明支持的态度”,目前已经跟一些AIGC机构开展合作,尝试为画师在创意创作等领域上提供帮助,但也在密切关注创作者和读者们的反应。
巴菲特马斯克都在反对AI
5月6日,巴菲特在伯克希尔哈撒韦公司的年度会议上,明确表示反对人工智能的迅速崛起。
巴菲特称,尽管现代人工智能发展迅速,它们似乎具有令人难以置信的能力,比如说OpenAI公司的ChatGPT,但正是这些能力让他感到害怕。“当一个东西可以做各种各样的事情时,我就有点担心了。因为我知道我们必须发明它,就像我们有一个非常非常好的理由在第二次世界大战中发明了原子弹一样。我们这样做是很重要,但是这种能力被释放出来,对世界的下一个200年有好处吗?”
巴菲特并不是唯一一个站出来反对人工智能崛起的有影响力的人。谷歌的前人工智能大师、被称为“人工智能教父”的杰弗里辛顿博士最近公开承认,他对自己开发人工智能技术的工作感到“后悔”。他表示:“一旦AI在人类灌输的目的中生成了自我动机,那以它的成长速度,人类只会沦为硅基智慧演化的一个过渡阶段。AI会取代人类,它有能力这么做,在当下的竞争环境下也没有什么办法限制它,因此这只是一个时间问题。”
今年4月中旬,马斯克在接受福克斯采访时警告,人工智能可能导致“文明毁灭”,支持“政府对AI进行监管,尽管受到监管并不好玩”,一旦AI“可能处于控制地位,再制定法规可能为时已晚”。
就在3月29日,非营利组织“未来生命研究所”发出一封联合署名的公开信,呼吁“所有AI实验室立即暂停对比GPT-4更强大的AI系统的训练至少6个月”。马斯克位列这封公开信署名榜单的第一位。
据不完全统计,从2014年截止到现在,马斯克公持续表达对AI的担忧。尤其是2018年在接受采访时,马斯克直言“人工智能比核武器更危险”。马斯克对AI的“戒心”大致可以概括为两个层面:一是担忧人工智能的进化可能脱离人类的控制,从而对人类造成负面影响甚至潜在的危险;二是呼吁加强对人工智能的监管,以确保其安全可控。
尽管视AI为洪水猛兽,马斯克从未停止过对AI方面的投资、研发。当下知名的AI公司OpenAI和DeepMind的融资历程中均有马斯克的足迹。马斯克此前挖来了OpenAI首席科学家、AI大牛Andrej Karpathy领导特斯拉自动驾驶团队;专门开辟特斯拉AI日并推出了自己的超级计算机Dojo;早早将手伸向了具身智能,即人形机器人;其脑机接口技术公司Neuralink的最终目的也是为了“将人类意识与AI融合”。
对AI立法、设限呼声愈烈
今年3月22日,美国非营利性智库未来生命实验所(future of life institute,简称FOLI)在自己的官网上刊发了名为《暂停大型AI实验:一封公开信(Pause Giant AI Experiments: An Open Letter)》的请愿书,一时间吸引了广泛的关注。
截止目前,FOLI宣称其已经收集了超过30000个签名,并完成了对其中27565个的认证。在这些签名中除了广为人知的特斯拉CEO埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克外,还有众多科学学术界泰斗和科技产业界精英。
请愿书截图
请愿书一连抛出涉及知情权、劳动就业权、人类种族安全与可持续发展的四个问题,并提出“只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统”。
请愿书提出了四点呼吁。首先,呼吁所有AI实验室立即暂停训练对比GPT-4更强AI系统至少6个月,并保证其公开、透明、可验证,且必要时由政府介入予以保障。其次,人工智能行业内的实验室和独立专家应利用这段时间,共同制定一套用于高级人工智能设计与开发的共享安全协议,并由第三方独立专家进行严格审计和监督。再次,人工智能研究机构在遵守共同协议的情况下,在研发中应保障其人工智能系统本身更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。最后,AI开发人员须进一步和政策制定者合作,尽快开发针对强大AI的治理系统。
5月4日,谷歌、微软、OpenAI、Anthropic四家公司的主要负责人齐聚白宫,出席由副总统哈里斯主持的AI风险治理会议,会议内容包括企业对政策制定者更透明地介绍其人工智能产品,评估人工智能产品的安全性,减少有偏见的算法决策等等。
此次会面后不久,谷歌支持的人工智能(AI)初创公司Anthropic公布了一套针对AI发展的书面道德价值观,该价值观主要适用于训练和保护人工智能。这次公布的人工智能道德价值准则也被该公司称为“Claude宪法”,这些准则借鉴了几个来源,包括联合国人权宣言,甚至还有苹果公司的数据隐私规则。
相比之下,欧盟更雷厉风行,直接给AI风险分级、工具分类,甚至开始酝酿法律。近日,欧洲议会成员已经就《人工智能法((Artificial Intelligence Act))》提案达成临时政治协议。5月11日,欧盟委员会将对协议进行投票;6月中旬,欧盟将进行全体投票。该协议如果顺利通过,将为欧洲《人工智能法》的出台铺平道路。
与美国比邻的加拿大,去年6月就提出了《数字宪章实施法案》,明确指出企业要在监管框架下开发人工智能系统。该法案包括三项内容:《消费者隐私保护法案》、《个人信息和数据保护法庭法案》和《人工智能和数据法案》。其中,《人工智能和数据法案》规定,拥有“高影响”的人工智能系统的组织,需要设立程序,以识别和减轻因这些系统可能使用有偏见的数据而产生伤害的风险。
(文章来源:上游新闻)