人工智能吴恩达ai智能文章生成器人工智能的名词解释人工智能机器人价格
人工智能的发展如今与我们的生活更加息息相关,AI 不再单纯是实验室中的高科技,而是以各种方式嵌入了我们的生活
人工智能的发展如今与我们的生活更加息息相关,AI 不再单纯是实验室中的高科技,而是以各种方式嵌入了我们的生活。在这种情况下,我们更需要对人工智能的潜力和风险进行全方位评估。本文来自编译,希望对您有所启发。
“无限的快乐”。这是用 OpenAI 的 DALL-E 2 人工智能程序生成的图像人工智能吴恩达。凯文·卢斯(Kevin Roose)写道,我们正处在人工智能发展的黄金时代人工智能吴恩达,是时候开始认真评估它的潜力和风险了。
在过去的几天里,我一直在玩 DALL-E 2ai智能文章生成器,这是旧金山公司 OpenAI 开发的一款应用程序,可以把文字描述变成超现实的图像。
OpenAI 邀请我在测试期试用 DALL-E 2,我很快就迷上了,花了好几个小时的时间想出一些奇怪、有趣和抽象提示,来让 AI 帮我出图,比如“一幅形状像牛角面包的郊区住宅”,“一幅两只企鹅在巴黎小酒馆喝酒的炭笔素描”。几秒钟内,DALL-E 2 就会输出一些对应的图像,通常带有令人瞠目结舌的现实主义风格。
“一个20世纪20年代的黑帮分子在的黑白老式照片”。这是用 OpenAI 的 DALL-E 2 人工智能程序生成的图像。
DALL-E 2 令人印象深刻的不仅仅是它产生的艺术作品,还有它产生艺术作品的方式。这些图片并不是由现有的网络图片合成的,而是通过一种名为“diffusion”的复杂人工智能过程创造出来的全新作品。这个过程是从一系列随机的像素开始,并不断地对其进行优化,直到图像与给定的文本描述相匹配人工智能的名词解释人工智能机器人价格。而且它的改进速度很快,DALL-E 2 的图像细节是去年才推出的第一代 DALL-E 生成的图像的四倍。
“蓝色纱线编织的帆船”。这是用 OpenAI 的 DALL-E 2 人工智能程序生成的图像。
DALL-E 2 在发布时获得了大量关注,这也是理所当然的ai智能文章生成器。这是一项令人印象深刻的技术,对任何以图像为生的人(比如插画师、平面设计师、摄影师等等)都有重大意义。它还提出了一些重要的问题,比如,这些人工智能生成的艺术作品将被用来做什么,以及我们是否需要担心虚假合成图像的传播。
在过去的 10 年里(一些人工智能研究人员将这一时期称为“黄金十年”),人工智能研究的许多领域都出现了一波进展,这是由深度学习等技术的兴起,以及用于运行庞大的、计算密集型人工智能模型的专门硬件的出现所推动的。
其中一些进展是缓慢而稳定的,比如模型更大了,数据处理能力更强了,输出的结果更好了。还有些时候,进展像是突然发生的,就像魔法一样。
例如,就在五年前,人工智能领域最大的新闻还是 AlphaGo,这是谷歌旗下的 DeepMind 开发的深度学习模型,可以在围棋棋类游戏中击败世界上最优秀的人类。训练人工智能赢得围棋比赛是一件有趣的事情,但这并不是大多数人关心的那种进步。
但去年,DeepMind 的 AlphaFold(一种源自围棋的人工智能系统)做了一件真正意义深远的事情。它利用一个经过训练的深度神经网络,从蛋白质的一维氨基酸序列中预测了蛋白质的三维结构,基本上解决了所谓的“蛋白质折叠问题”,而这个问题此前已经困扰了分子生物学家几十年。
2022 年夏天,DeepMind 宣布 AlphaFold 已经对几乎所有已知存在的 2 亿种蛋白质进行了预测,产生了一个宝贵的数据库,这将帮助医学研究人员在未来几年开发新的药物和疫苗。《科学》杂志在前一年就认识到了 AlphaFold 的重要性,将其命名为当年最大的科学突破。
就在几年前,人工智能聊天机器人甚至连最基本的对话都难以进行,更不用说更困难的基于语言的任务了。
但现在,像 OpenAI 的 GPT-3 这样的大型语言模型可以被用于编写剧本、撰写营销邮件和开发电子游戏。去年我甚至用 GPT-3 为纽约时报写了一篇书评,而且,如果我没有事先告诉编辑,他们可能都看不出来。
人工智能还可以写代码,超过 100 万人已经注册使用了 GitHub 的Copilot,这是一个 2021 年发布的工具,可以通过自动完成代码段来帮助程序员更快地工作。
还有谷歌的人工智能模型 LaMDAai智能文章生成器,几个月前上了头条,当时谷歌高级工程师布莱克·勒莫因(Blake Lemoine)因为说 LaMDA 有知觉而被解雇了。
谷歌驳斥了布莱克·勒莫因的说法,许多人工智能研究人员对他的结论也提出了质疑。但抛开 AI 有感知的说法,LaMDA 等最先进的语言模型确实正变得越来越善于进行类似人类的文本对话,这点是毫无疑问的ai智能文章生成器。
事实上,许多专家会告诉你,如今人工智能在很多方面都在变得越来越好,甚至是在语言和推理等似乎是“人类专属”的领域。
斯坦福大学(Stanford University)年度人工智能指数报告(AI Index Report)联合主席杰克·克拉克(Jack Clark)表示:“感觉我们正从(人工智能的)春天走向夏天。在春天,你会看到一些模糊的进步迹象,到处都是绿色的嫩芽。现在,一切都盛开了。”
在过去,人工智能的进展大多只有那些紧跟最新研究论文和会议报告的内部人士才能看到。但最近,克拉克说,即使是外行人也能感觉到不同。
克拉克说:“你过去看到人工智能生成的文字时会说,‘哇,它好像写了一个句子。’现在你看到人工智能生成的东西,会说,‘这真的很有趣,我很喜欢读这样的文字,’或者‘我不知道这是人工智能生成的。’”
仍然有很多糟糕、失败的人工智能,比如产生种族主义言论的聊天机器人,以及导致车祸的有缺陷的自动驾驶系统。即使人工智能迅速改善,通常也需要一段时间才能渗透到人们实际使用的产品和服务中。今天 Google 或 OpenAI 的人工智能突破,并不意味着你的 Roomba 扫地机器人明天就能够写小说。
但最好的人工智能系统现在的确非常强大,并以非常快的速度改进着,以至于硅谷的对话开始发生转变。越来越少的专家会自信地预测,我们将有几年甚至几十年时间为改变世界的人工智能浪潮做好准备,相反,许多人现在认为,无论好坏,重大变化都即将到来。
Open Philanthropy 研究人工智能风险的高级分析师阿杰亚·科特拉(Ajeya Cotra)两年前估计,到 2036 年,有 15% 的可能性会出现“变革性人工智能”(她和其他研究者将其定义为足以带来大规模经济和社会变革的人工智能,例如让大多数白领工作消失)。
但在最近的一篇文章中,科特拉将这个概率提高到了 35%,理由是 GPT-3 等系统的快速改进。
科特拉告诉我:“人工智能系统可以在惊人的短时间内,从可爱而无用的玩具变成非常强大的产品。人们应该更认真地看待这一领域,人工智能可能很快就会改变世界,这可能真的很可怕。”
其实,有很多怀疑论者认为,人工智能取得进展的说法言过其实人工智能的名词解释。他们会告诉你,人工智能距离拥有感知能力,或取代人类从事各种各样的工作还远得很。他们会说 GPT-3 和 LaMDA 这样的模型就像是“鹦鹉”,只会盲目地重复其训练数据,而我们距离创造真正的 AGI(能够自己“思考”的人工通用智能)还需要几十年的时间。
也有一些科技乐观主义者认为,人工智能的进步正在加速,并希望它加速得更快。他们相信,加快人工智能的改进速度,将为我们提供治疗疾病、开拓太空和避免生态灾难的新工具。
毕竟,有效的人工智能并不会只停留在实验室里。它以 Facebook feed 排名算法、YouTube 推荐和 TikTok “For You” 页面的形式嵌入到了我们每天使用的社交媒体应用程序中。它也进入了军队使用的武器和孩子们在教室里使用的软件中。银行会使用人工智能来确定谁有资格获得,部门会使用人工智能来调查犯罪。
即使怀疑论者是对的,人工智能在许多年内都无法达到人类水平的感知能力,我们也很容易见证 GPT-3、LaMDA 和 DALL-E 2 等系统将如何成为社会的一股强大力量。几年后,我们在互联网上看到的绝大多数照片、视频和文字都可能由人工智能生成。我们的在线互动可能会变得更奇怪、更令人担忧,因为很难弄清楚哪些对话对象是人类,哪些是机器人。精通技术的宣传者们可以利用技术大规模地制造有针对性的错误信息,以我们看不到的方式扭曲事实。
在人工智能的世界里,说“我们需要就人工智能风险进行一次社会对话”已是陈词滥调,已经有很多达沃斯论坛、TED 演讲、智库和人工智能伦理委员会,正在为反乌托邦的未来草拟应急计划。
我们缺少的是一种共享的、价值中立的方式,来谈论当今的 AI 系统实际上能够做什么,以及这些能力带来了哪些具体的风险和机会。
由于这些人工智能系统很多都是新产品,所以很少有政府官员有使用 GPT-3 或 DALL-E 2 等工具的第一手经验,他们也不了解人工智能前沿领域的进展有多快。
我们已经看到了一些缩小差距的努力,例如,斯坦福大学“以人为本人工智能研究所”最近为美国国会工作人员举办了为期三天的“人工智能训练营”,但我们需要更多的政界人士和监管机构对这项技术感兴趣。即使是阅读布莱恩·克里斯蒂安(Brian Christian)的《对齐问题》(The Alignment Problem)之类的书,或者了解 GPT-3 这样的模型工作的一些基本细节,都是巨大的进步。
否则,我们可能会重蹈 2016 年大选后社交媒体公司的覆辙,硅谷的权力与华盛顿的无知发生碰撞,结果只会导致僵局和激烈的听证会。
其次,在人工智能开发上投资数十亿美元的大型科技公司(比如谷歌们、Meta们和OpenAI们)需要更好地解释其公司正在做什么,而不是粉饰或淡化风险。目前,许多大型 AI 模型都是在闭门开发的,使用私人数据集,只由内部团队进行测试。当有关信息被公开时,通常不是被公司公关淡化,就是被隐藏在晦涩难懂的科学论文中。
淡化人工智能风险以避免负面反应可能是一个明智的短期策略,但如果科技公司被视为在悄悄推进与公众利益相悖的人工智能,这些公司便将无法长期生存。如果这些公司不自愿公开相关信息,人工智能工程师也应该绕过他们的老板,直接与政策制定者和记者本人交谈。
第三,新闻媒体需要更好地向非专家解释人工智能的进展。太多时候,记者们都是借助过时的科幻作品,将人工智能领域发生的事情翻译给普通大众。我们有时会将大型语言模型与 Skynet(《终结者》里的人工智能防御系统)和 HAL 9000(《2001 太空漫游》里的超级电脑)进行比较,并将具有前景的机器学习突破,简化为“机器人来了!”这些我们认为会引起读者共鸣的标题。偶尔人工智能机器人价格,我们会在关于“基于软件的 AI 模型”的文章中配上“基于硬件的工厂机器人”的照片——这就暴露了我们的无知。这种错误就像是在一篇写自行车的文章中配上一辆宝马的照片一样令人费解。
从广义上说,大多数人狭隘地看待人工智能,是因为它与我们有关,比如它会抢走我的工作吗?在技能 X 或任务 Y 中,它比我更好还是更糟?而不是试图理解人工智能正在发展的所有方式,以及这可能对我们的未来意味着什么。
我会尽自己的一份力量,记述人工智能的所有复杂性和怪异之处,而不依赖夸张的标题或好莱坞式的比喻。但我们都需要调整自己的思维模式,以便为头脑中新的、不可思议的机器腾出空间。