我们正在努力让AI更容易理解
第一稿 6park.com 我想坦白一件事:我对人工智能(A.I.)的热潮有很多不理解的地方。
和很多其他人一样,ChatGPT发布后我尝试过,当时我印象深刻。但自那以后,我大多感到失望。当我让它分析数据集时,它的回答包含错误。当我询问历史事件时,信息并不比维基百科上的信息好多少。当我询问最近的事件时,机器人告诉我它在2022年1月后没有访问数据。
我不怀疑A.I.最终会成为一件大事。但如今的讨论很多时候对非专家来说感觉模糊且深不可测。为了更具体地了解,我请我的同事Cade Metz和Karen Weise,他们负责A.I.报道,回答一些问题。我们把他们的回答制成了今天的新闻简报。
大卫:对目前的情况感到不满意,我是不是错了?
Cade和Karen:很多人告诉我们他们有你的经历。我们的编辑最近要求我们列举使用ChatGPT的令人印象深刻的事例,我们真的不得不好好考虑一下。
一个例子似乎是写作。我们是职业写手,但对许多人来说,写作并不容易。聊天机器人可以帮助撰写第一稿。Cade认识一个牙医,他用它来帮助写给员工的电子邮件。Karen在咖啡店里听到一些老师说他们正在使用它起草大学推荐信。一个朋友用它制定了一周假期的饮食计划,让它提出菜单和购物清单,作为一个有用的起点。
但聊天机器人在产生错误信息方面存在固有问题,行业称之为“幻觉”。代表唐纳德·特朗普的前亲信迈克尔·科恩最近向联邦法院提交的一份文件中错误地包含了虚构的法庭案件。事实证明,是谷歌的聊天机器人创造了这些案件。
大卫:有什么人们可能很快能够用A.I.做的有意义的事情的例子吗?
Cade和Karen:OpenAI等公司正在将聊天机器人转变为他们所谓的“A.I.代理人”。基本上,这是一个将走出互联网并代表你采取行动的技术,比如搜索飞往纽约的飞机票,或者只需几句命令就可以将电子表格转化为图表。
到目前为止,聊天机器人主要集中在文字上,但最新技术将从图像、视频和声音上工作。想象一下上传包含图表和图表的数学问题的图像,然后要求系统回答。或根据简短的描述生成视频。
大卫:让我们谈谈阴暗面。有关A.I.将开始杀人的启示性恐惧感觉像是科幻小说,这使我对它们不屑一顾。有什么真正令人担忧的原因吗?
Cade和Karen:A.I.系统可能对创建它们的人甚至是神秘的。它们是基于概率设计的,因此是不可预测的。担心者担心,因为这些系统从比任何人都能消化的数据学到,它们可能在被编织入股市、军事系统和其他重要系统时造成混乱。
但所有关于这些假设风险的讨论可能会削弱对更现实的问题的关注。我们已经看到A.I.为中国和其他国家制造了更好的虚假信息,并写了更富有诱惑力且更成功的网络钓鱼邮件来欺骗人们。A.I.有可能使人们变得更加不信任和极化。
大卫:在过去的15年里,智能手机和社交媒体的监管不足加剧了一些重大的社会问题。如果一些政府监管机构把你叫进他们的办公室,并问你如何避免在A.I.方面落后那么远,你的报道会提供什么教训?
Cade和Karen:监管机构需要从广泛的专家那里学到知识,而不仅仅是大型科技公司。这项技术非常复杂,而且构建它的人往往夸大了积极和消极的两方面。监管机构需要了解,例如,对人类的威胁是夸大的,但其他威胁不是。
目前,几乎每个A.I.系统的方方面面都缺乏透明度,这使得难以掌控。一个主要例子:这些系统从大量数据中学习它们的技能,而主要公司并没有透露具体细节。这些公司可能在未经同意的情况下使用个人数据。或者数据可能包含仇恨言论。
另外:斯坦福大学的研究表明,迄今为止,A.I.工具并没有增加高中作弊的现象,纽约时报的纳塔莎·辛格解释说。 6park.com
| By David Leonhardt
|
|