优亿链收录网_自动秒收录外链

吴恩达:过度夸大AI风险会催生令人窒息的法规|算法|百度|机器人|科学家|人工智能技术


文章编号:656 / 更新时间:2023-12-28 18:25:55 / 浏览:

用微信扫码二维码

分享至好友和朋友圈

我是从一个陌生人身上第一次感受到了2023年出现的大变化。3月份,当我们一起等电梯时,她告诉我,她刚刚用ChatGPT帮她写了一份营销工作报告。

她讨厌写报告,因为她觉得自己不太擅长。但这次她的经理表扬了她。这是作弊吗?她认为不是,因为她尽了自己所能。

这个陌生人对生成式人工智能的体验只是数百万人中的一例。许许多多和她一样的人现在正在尝试弄清楚,这项激进的新技术的用途,并想知道它能为他们做什么。

从很多方面来说,现在围绕生成式人工智能的热议让人想起了互联网的早期时光:有一种兴奋和期待的感觉,还有一种我们要边走边看的感觉。

换句话说,我们现在所处的状态就像2000年左右的互联网繁荣时期。在此之后,许多公司将破产。我们可能需要数年时间才能看到这个时代的(现在的)、(现在的X)或出现。

互联网改变了一切,改变了我们如何工作和消磨时间,改变了我们如何与朋友和家人共度时光,改变了我们如何学习、消费、坠入爱河。但它也给我们带来了网络霸凌、报复性色情和恶搞。

它助长了种族灭绝事件和心理健康危机,并创造了监控资本主义,及其令人上瘾的算法和掠夺性广告,使之成为我们这个时代主导的市场力量。只有当人们开始大量使用它,或者与其有关的社交媒体等杀手级应用程序出现时,这些缺点才会变得明显。

生成是人工智能可能也是如此。我们已经有了基础设施,来自、、和其他一些公司的基础生成式模型,除了构建它的人之外,其他人可能会以开发者做梦也想不到的方式使用和滥用模型。

说:“如果没有个人用户真正参与其中,我们就无法完全了解其潜力和风险。”

当我们看着生成式人工智能革命逐渐展开时,以下是六个尚未解决的问题。这一次,我们有机会做得更好。

我们会缓解偏见问题吗? 吴恩达过度夸大AI风险会催生令人窒息的法规

偏见已经成为人工智能相关危害的代名词,这是有充分理由的。现实世界的数据,尤其是从互联网上抓取的文本和图像,充斥着各种各样的数据,从性别刻板印象到种族歧视。根据这些数据训练的模型会自带这些偏见,然后在任何可能用到它们的地方强化它们。

聊天机器人和图像生成器倾向于将工程师描绘成白人和男性,将护士描绘成白人和女性。黑人则有被面部识别程序误认为嫌疑人的风险,导致错误逮捕。招聘算法偏爱男性而非女性,这加深了许多行业和领域本就根深蒂固的偏见,而算法本来是为了解决偏见的。

如果没有新的数据集或训练模型的新方法(这两种方法都可能需要数年的工作),偏见问题的根本原因将一直存在。但这并没有阻止它成为研究的热点。

一直致力于使用诸如从人类反馈中强化学习(RLHF,reinforcementlearningfromhumanfeedback)等技术来减少其大型语言模型的偏见。这将引导模型的输出更符合人类测试员所喜欢的文本类型。

其他减少偏见的技术包括使用合成数据集。是一家为视频制作制作生成模型的初创公司,在训练图像制作模型StableDiffusion的一个版本时,它使用了人工智能生成的种族、性别、职业和年龄不同的人的图像等合成数据。

该公司报告称,基于该数据集训练的模型生成了更多皮肤较黑的人的图像和更多女性的图像。如果要求它提供一张商人的照片,现在的成品图片会包括戴头巾的妇女。医生的形象也将有更多不同肤色和性别的人。

批评者则认为,这些解决方案只是掩盖了基础模型存在的问题,而没有真正解决问题。但史密斯在的同事、该公司的负责任人工智能主管杰夫·谢弗()认为,这种算法偏见暴露的社会偏见,从长远来看可能是有用的。

例如,他指出,即使从数据集中删除了有关种族的明确信息,种族偏见仍然会扭曲数据驱动的决策,因为种族可以从人们的地址中推断出来,这揭示了种族隔离和住房歧视问题的存在。他说:“我们在一个地方收集了一堆数据,这种(数据中隐藏的)相关性将变得非常明显。”

认为,这一代人工智能也可能发生类似的情况:“社会上的这些偏见将突然出现。”他说,这将导致更有针对性的政策制定。

但许多人对这种乐观态度持谨慎态度。问题虽然暴露出来,但并不能保证它会得到解决。政策制定者仍在努力解决多年前暴露出来的,在住房、招聘、贷款、治安等方面存在的社会偏见。与此同时,人们正在承受后果。

我们的预测:偏见将继续成为大多数生成式人工智能模型的固有特征,但变通办法和提高认识可以帮助决策者解决最显眼的麻烦。

这些诉讼很重要。莎拉·西尔弗曼()和乔治·R·R·马丁()等知名作家的参与引起了媒体的关注。这些案件将改写关于什么是公平利用他人作品的规则,至少在美国是这样。

但这些诉讼不会很快结束。代表280多家人工智能公司的GundersonDettmer律师事务所专门从事知识产权许可的合伙人凯蒂·加德纳()表示,法院还需要数年时间才能做出最终裁决。她说,到那时,“这项技术将在经济中根深蒂固,无法再被废除。”

与此同时,科技行业正以惊人的速度在这些被指控的侵权行为的基础上发展。说:“我不认为公司会静观其变。可能会有一些法律风险,但跟不上竞争对手意味着更大的风险。”

、微软和OpenAI现在会保护其模型的用户免受潜在的法律诉讼风险。在等待法院审理案件的时间里,微软对其代码生成助理GitHubCopilot的赔偿政策原则上会保护那些使用它的人。

然而,AdobeStock的一些贡献者表示,他们并未提前知晓此事,而且对此并不满意。

现在,艺术家们正在用自己的技术进行反击。一种名为Nightshade的工具允许用户以人类无法察觉但会破坏机器学习模型的方式更改图像,使其在训练过程中对图像进行错误分类。因此,针对媒体的网络共享和重新调整用途的规范将发生重大改变。

它将如何改变我们的工作?

聊天机器人可以在高中考试、专业医疗执照考试和律师考试中名列前茅。他们可以总结会议,甚至撰写基本的新闻文章。人类还剩下什么可以做?答案并不简单。

许多研究人员否认大型语言模型的表现体现了真正的智能。但即使是这样,大多数职业也比这些模型能做的任务多得多。

该团队向数百名顾问提供了与一家虚构的鞋业公司有关的18项任务,如“针对被忽视的市场或运动提出至少10个新鞋的想法”和“基于用户群的细分鞋业市场”。其中一些人使用ChatGPT来帮助他们,另一些人则没有使用。

结果令人震惊:在一篇关于这项研究的博客文章中写道:“使用ChatGPT-4的顾问比没有使用的顾问表现得好很多,而且是在我们衡量绩效的每个方面都更好。”

风险投资公司的创始人、人工智能状况报告团队负责人拿单·贝纳奇()表示,许多企业已经在使用大型语言模型来查找和获取信息,该报告是一份全面的研究和行业趋势年度总结。

他觉得这很受欢迎。“希望分析师能成为一个人工智能模型。”他说,“这些东西大多让人头疼。”

他的观点是,把繁重的工作交给机器,可以让人们专注于工作中更有成就感的部分。这项技术似乎也能提高劳动力群体的技能水平:早期的研究,比如对顾问的研究和其他对程序员的研究表明,经验不足的人从使用人工智能中获得的提升更大。

生成式人工智能不会仅仅改变白领的工作。图像和视频制作模型可以在没有人类插画师、摄像师或演员的情况下制作出源源不断的图片和电影。2023年美国作家和演员的罢工清楚地表明,这将是未来几年的爆发点。

即便如此,许多研究人员认为这项技术可以为员工赋能,而不是取代他们。毕竟,自工业革命以来,技术更新总伴随着岗位更替。随着旧工作岗位的消失,新的工作岗位也随之产生。史密斯说:“我非常强烈地感觉到这是一个积极因素,会带来净增。”

但变化总是痛苦的,受影响个人的损失总会被净增掩盖。技术剧变也倾向于集中财富和权力,加剧不平等。

莫利克写道:“在我看来,问题不再是人工智能是否会重塑工作,而是我们希望这意味着什么。”

我们的预测:对大规模失业的担忧会被夸大。但生成式人工智能工具将继续在工作场所普及。人们的职务可能会发生变化,可能需要学习新技能。

它会生产出哪些错误信息?

2023年最受欢迎的三张(人工智能生成)照片是,教皇穿着巴黎世家蓬松的衣服,唐纳德·特朗普被警察按倒在地,以及五角大楼发生爆炸。它们都是假的,但这并不妨碍它们被数百万人看到和分享。

使用生成式模型来创建伪造的文本或图像比以往任何时候都更容易。许多人警告说,错误信息将在网上泛滥。OpenAI合作进行了一项研究,指出了许多潜在的滥用其技术进行假新闻宣传的情况。

在2023年的一份报告中,OpenAI警告说,大型语言模型可能被用于大规模制作更具说服力的宣传,因此更难被发现。美国和欧盟的专家已经表示,未来的选举将面临风险。

毫不奇怪,拜登政府在10月份将人工智能生成内容的标记和检测作为其人工智能行政命令的重点。

但该行政令不能从法律商强制生成式工具制造商将文本或图像标记为人工智能的产物,而且我们最好的人工智能检测工具还不够好,不值得信任。

本月终于完成的欧盟《人工智能法案(EUAIAct)》将更进一步。全面立法的一部分要求公司在人工智能生成的文本、图像或视频中添加水印,并在人们与聊天机器人互动时向他们明确表示对方是机器人。《人工智能法案》也很有效果:这些规则将具有约束力,违规者将被处以高额罚款。

美国还表示,将审计任何可能对国家安全构成威胁的人工智能,包括干预选举。“这是向前迈出的一大步。”说。

但即使是这些模型的开发者也不知道它们的全部能力:“在模型发布前,政府或其他独立机构可以迫使公司对其进行全面测试,但这个想法似乎不现实。”

一个大问题是:在一项技术被使用之前,我们不可能知道它会被滥用的所有方式。谢弗说:“在2023年,有很多关于减缓人工智能发展的讨论。但我们持相反的观点。”

除非这些工具被尽可能多的人以不同的方式使用,否则我们不会让它们变得更好,他说:“我们不会理解这些奇怪的风险会以何种微妙的方式表现出来,也不会理解什么事件会触发它们。”

我们的预测:随着技术使用量的增加,新形式的滥用将继续出现。会有一些最明显的例子,比如涉及到选举操纵。

我们会正视它的成本吗?

生成式人工智能的开发成本,包括人类和环境成本,也需要考虑。“隐形工人问题”是一个公开的秘密:我们避免了生成式模型所能产生的最糟糕的结果,这在一定程度上要归功于一群默默无闻的(通常是低收入的)外包工人。他们标记训练数据,并在测试过程中剔除有毒的,有时是创伤性的输出内容。这就是数据时代的血汗工厂。

2023年,OpenAI在肯尼亚雇佣外包员工的行为受到了《时代》和《华尔街日报》等主流媒体的密切关注。OpenAI希望通过构建一个过滤器来改进其生成式模型,该过滤器将向用户隐藏仇恨、淫秽和其他冒犯内容。

但要做到这一点,它需要人们找到并标记大量此类有毒内容作为样本,以便其自动过滤器能够学会发现它们。OpenAI雇佣了外包公司,据称该公司在肯尼亚雇佣了低薪工人。

随着生成式人工智能现在成为主流,人力成本将成为人们关注的焦点,这将给建立这些模型的公司带来压力,因为它们需要帮助改进全世界各地廉价劳动力的工作条件。

另一个巨大的成本,即训练大型生成式模型所需的能量,将在情况好转之前攀升。8月,宣布2024年第二季度收益超过135亿美元,是上年同期的两倍。其中大部分收入(103亿美元)来自数据中心,换句话说许多公司使用了英伟达的硬件来训练人工智能模型。

英伟达CEO表示:“需求非常巨大。我们正处于生成式人工智能的起步阶段。”他承认这里存在能源问题,并预测这一繁荣甚至可能推动计算硬件类型的改变。他说:“世界上绝大多数的计算基础设施都必须是节能的。”

我们的预测:公众对人工智能相关劳动力和环境成本的认识提高将给科技公司带来压力。但不要指望这两方面很快会有显著改善。

末日论会继续主导政策制定吗?

末日论,即担心智能机器的出现可能会带来灾难性,甚至世界末日般的后果,长期以来一直隐藏在人工智能光鲜亮丽表面的背后。但狂热的炒作,加上人工智能先驱杰弗里·辛顿()在5月份高调宣布,他现在害怕自己帮助创造的技术,又让末日论进入了公众视野。

在2023年,很少有问题能引起如此大的分歧。辛顿和图灵奖得主杨立昆()等人工智能名人在社交媒体上公开争论不休。杨立昆创立了Meta的人工智能实验室,并认为末日论是荒谬的。

辛顿、OpenAICEO山姆·奥特曼()和其他人建议,(未来)人工智能系统应该有类似于核武器的保障措施。这样的对话引起了人们的注意。

但今年7月,在美国科学家联合会核信息项目经理马特·科尔达()在Vox上与人合著的一篇文章中,他谴责了这些“混乱的类比”及其引发的“没营养的媒体恐慌”。

我们很难理解哪些是真实的,哪些不是,因为我们不知道人们发出警报的动机,贝纳奇说:“很多人靠着这些东西变得非常富有,这似乎很奇怪,而很多人正是那些要求更大控制权的人。这就像是,‘嘿,我发明了一种非常强大的东西!它有很多风险,但我有解药。’”

有些人担心所有这些散布恐惧的行为的影响。在上,深度学习先驱(AndrewNg)写道:“我对人工智能未来最担心的是,如果过度夸大的风险(如人类灭绝),进而让科技游说者制定了压制开源和压制创新的、令人窒息的法规。”这场辩论还让资源和研究人员远离更直接的风险,如偏见、就业动荡和错误信息。

谷歌的人工智能研究员弗朗索瓦·肖莱(FrançoisChollet)表示:“有些人推动生存风险的议题,因为他们认为这将有利于自己的公司。谈论生存风险既突出了你的道德意识和责任感,又分散了对更现实和紧迫问题的注意力。”

贝纳奇指出,一些人左手给大家敲响警钟,却用另一只手为他们的公司筹集1亿美元。“你可以说末日论是一种筹款策略。”他说。

我们的预测:散布恐惧的声音会消失,但对决策者议程的影响可能会持续一段时间。我们会看到越来越多关于重新关注更直接危害的呼吁。

仍然缺失:人工智能的杀手级应用

ChatGPT差点就没能问世,听起来是不是很奇怪?在2022年11月发布之前,OpenAI的联合创始人兼首席科学家伊利亚·苏茨凯弗()对其准确性并不满意。该公司的其他人担心这并不是什么真正的进步。在当时,ChatGPT更多的是技术的重新混合,而非革命性的进步。

它是由GPT-3.5驱动的,GPT-3.5是几个月前开发的一个大型语言模型。但聊天机器人整合了许多互动性强的调整,特别是更具对话性和切中要害的回应。

“它既方便又实用。”苏茨凯弗说,“这是人工智能领域之外的人第一次看到人工智能的进步。”

由ChatGPT掀起的炒作还没有完结的迹象。“人工智能是圈子里唯一的游戏。”苏茨凯弗说,“这是科技界最重要的事情,科技也是经济中最重要的东西。我认为我们将继续对人工智能的作用感到惊讶。”

但现在我们已经看到了人工智能的能力,接下来最关键的问题或许是它能用来做什么。OpenAI构建这项技术时没有考虑到实际用途。研究人员在发布ChatGPT时似乎只说了一件事:用它做你想做的事。从那以后,每个人都在争先恐后地想知道那是什么。

“我觉得ChatGPT很有用。”苏茨凯弗说,“我经常用它来处理各种随意的事情。”他说,他用它来查找某些单词,或者帮助他更清楚地表达自己。

有时他会用它来查找事实(尽管它并不总能返回事实)。的其他人将其用于度假计划,比如列出“世界上排名前三的潜水点是什么?”,学些编程技巧或者寻找IT技术支持。

有用,但不会改变游戏规则。这些例子中的大多数都可以使用现有的工具来完成,比如搜索。

与此同时,据说谷歌内部员工对该公司自己的聊天机器人Bard(现在由谷歌的GPT-4竞品Gemini模型驱动)的有用性表示怀疑。

据彭博社报道,谷歌Bard的用户体验负责人凯茜·佩尔()8月在Discord上写道:“我仍在思考的最大挑战是:大模型究竟有什么用?怎样才能真正做出些什么?(答案)还不清楚!”

如果没有杀手级的应用程序,吸引人们的效果就会减弱。投资公司红杉资本的统计数据显示,尽管像ChatGPT、Character.AI和Lensa这样的人工智能应用程序在网上疯传,但它们流失用户的速度比、和等同样流行的平台更快。

“消费技术的规则仍然适用。”贝纳奇说,“经过几个月的炒作,会有很多尝试,但很多东西都只能在水里淹死。”

无论发生什么,现在人工智能已经完全成为主流,小众问题已经成为每个人的问题。正如谢弗所说,“我们将被迫以前所未有的方式解决这些问题。”


相关标签: 算法百度吴恩达机器人科学家机器学习人工智能技术

本文地址:https://www.uel.cc/article/5bd077706b7da4e6c4be.html

上一篇:Masimo表示愿意和解手表专利纠纷但苹果尚未...
下一篇:何小鹏称如果想害朋友就让他造车,雷军造车不...

发表评论

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="https://www.uel.cc/" target="_blank">优亿链收录网_自动秒收录外链</a>