人工智能最大的支持者之一谷歌 警告自己的员工警惕使用聊天机器人
发布日期: 2023-06-19 16:42:52 来源: 友财网

【友财网讯】-四名知情人士告诉路透社,Alphabet公司在全球推广聊天机器人的同时,也在提醒员工如何使用聊天机器人,包括自己的聊天机器人“Bard”。


(相关资料图)

知情人士表示,谷歌(Google)母公司已建议员工不要将其机密材料输入人工智能聊天机器人,该公司援引了长期以来的信息保护政策。

包括Bard和ChatGPT在内的聊天机器人是一种听起来像人的程序,它们使用所谓的生成式人工智能与用户进行对话,并回答无数的提示。人类评论者可能会阅读聊天,研究人员发现,类似的人工智能可以复制它在训练期间吸收的数据,从而产生泄露风险。

一些人说,Alphabet还提醒其工程师避免直接使用聊天机器人可以生成的计算机代码。

在被问及评论时,该公司表示,Bard可以提出不受欢迎的代码建议,但它仍然有助于程序员。谷歌还表示,它的目标是对其技术的局限性保持透明。

这些担忧表明,谷歌希望避免其与ChatGPT竞争时推出的软件对业务造成损害。谷歌与ChatGPT的支持者OpenAI和微软公司(Microsoft Corp .)之间的竞争关系到数十亿美元的投资,以及新人工智能项目带来的尚不可知的广告和云收入。

谷歌的谨慎也反映了正在成为企业安全标准的东西,即警告员工不要使用公开的聊天程序。

包括三星(Samsung)、亚马逊(Amazon.com)和德意志银行(Deutsche Bank)等公司对路透社表示,全球越来越多的企业已经对人工智能聊天机器人设置了“护栏”。据报道,苹果公司(Apple)也是如此,但没有回复置评请求。

根据社交网站Fishbowl对包括美国顶级公司在内的近12000名受访者进行的一项调查,截至1月,约43%的专业人士在使用ChatGPT或其他人工智能工具,通常没有告诉他们的老板。

据Insider报道,到今年2月,谷歌告诉在发布前测试Bard的员工不要透露内部信息。现在,谷歌正在180多个国家以40种语言推出Bard,作为创造力的跳板,它的警告延伸到了代码建议上。

谷歌告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。此前,Politico网站周二报道称,谷歌将推迟本周在欧盟的发布,等待更多有关聊天机器人对隐私影响的信息。

*对敏感信息的担忧*

这种技术可以起草电子邮件、文件,甚至软件本身,有望大大加快任务的速度。然而,这些内容中可能包含错误信息、敏感数据,甚至是“哈利·波特”小说中受版权保护的段落。

6月1日更新的谷歌隐私声明也指出:“不要在你的Bard对话中包含机密或敏感信息。”

一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供其他云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记并限制其向外部流动。

谷歌和微软也在向商业客户提供对话工具,价格会更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的对话历史,用户可以选择删除。

微软消费者业务首席营销官优素福·迈赫迪(Yusuf Mehdi)表示,公司不希望员工在工作中使用公共聊天机器人是“有道理的”。

“公司采取了相当保守的立场。”迈赫迪说,他解释了微软免费的Bing聊天机器人与其企业软件的比较。“在那里,我们的政策要严格得多。”

微软拒绝评论它是否全面禁止员工将机密信息输入公共人工智能程序,包括它自己的程序,尽管一位不同的高管告诉路透社,他个人限制了这种使用。

Cloudflare的首席执行官马修·普林斯(Matthew Prince)表示,将机密事项输入聊天机器人就像“让一群博士生随意进入你所有的私人记录”。

关键词:

推荐内容