在投入市场不到一年的时间里,ChatGPT便仿佛已经无处不在——不仅占据了各大新闻版面,而且还颠覆了许多工作的内容和流程,影响了许多公司、大学甚至家庭。
ChatGPT是由OpenAI开发的一款聊天机器人,于2022年11月30日投入大众市场。“GPT”全称为“generative pre-trained transformer”,即“生成型预训练转换器”。当收到问题时,ChatGPT会利用人工智能(AI)根据2021年之前互联网可用资料当中的语言规律,生成独特的文字、图片、视频作为答复。人类反馈,即给予肯定或否定的投票,能够逐渐改进ChatGPT的表现,因而未来答复的准确度和关联度将会更高。
用户可以向ChatGPT查询信息,如“奥克兰每年平均降雨是多少?”,也可以要求ChatGPT写一篇关于鸭嘴兽栖息地的5000字大学论文,制作一份公司10年增长图表,甚至写一份符合职场水准的简短电子邮件,请甲方提供项目交付所需的额外信息。
但现在,行业领军企业以及各个法务合规团队都需要停止对ChatGPT的质疑,转而开始询问更关键的问题。ChatGPT和其他生成型AI工具(即通过一个提示词就可以产生新内容的工具)会带来哪些商业风险和机会?保险商应该怎样有策略地、合法地应对这项技术?保险商如何能够保护客户的数据和知识产权?
达信新西兰公司(Marsh New Zealand)网络专精业务主管朱诺·苏(Jono Soo)表示,保险业领军企业需要深入了解这项技术并小心任何相关风险。
“最关键的是,要明白(ChatGPT)与当前承保领域有哪些关联。”他说,“在某些层面上,这只是现有AI技术的另一项进步,所以市场在这个阶段还不需要对此出现条件反射式的反应。”
达信公司在《2023年全球风险报告》(Global Risks Report 2023)中写道,AI、量子计算、生物科技等领域的科技进步会创造风险,并且“导致个人信息于合法机制中遭到滥用,弱化个人电子自主权和隐私权,即使在法规完善的民主制政权治下也不例外”。苏表示,对于生成型AI技术的所有担忧都明显不只限于保险产业。“政府也需要对此有全面了解,社会整体也是一样。我们需要探寻到一套政策框架来快速规管这项技术的发展和使用,开始在其周围设置‘防护栏’。”
警惕风险
其礼律师事务所(Clyde & Co)电子法律与数据隐私律师埃里克·克里斯提(Alec Christie)表示,很多保险业领军公司都希望测试ChatGPT在日常流程自动化、内部与外部咨询、快速应答大量问题等方面的能力。
“对于简单的、基本有现成信息的工作任务,ChatGPT能够生成一个水平还可以的答复。”他说,“但如果面对错误信息或谣言,就会出现问题,因为它会照单全部吸收。”
对于保险商和其他企业,克里斯提所担忧的风险是“能够几乎完全随机地侵害知识产权、不遵守隐私条例”。他警告道:“如果不从知识产权和隐私权的角度去应对潜在风险,那就会产生一个巨大的风险敞口。”
许多其他律师和企业领导都与克里斯提想法一致,也在试图了解生成型AI工具会给保险商和其他企业带来的部分风险(法律与名誉风险)。
诽谤类案件及其他法律责任问题
ChatGPT是很智能,但并不全能。它的缺点之一便是信息核实,因为ChatGPT的答复依靠的都是语言规律,而非最新信息或知识。
这其中可能就会产生诉讼案件。比如,澳大利亚赫本郡(Hepburn Shire)郡长布莱恩·胡德(Brian Hood)对于ChatGPT误称他因贿赂罪坐过牢一事威胁说,除非OpenAI对此进行修正,否则就会把OpenAI告上法庭。
这可能会成为第一个针对ChatGPT的诽谤案,而且指出了一个普遍问题:聊天机器人提供的信息即使看上去合理,也有可能是错误的。企业为了自我保护,应当指导和要求员工来核查聊天机器人提供的答复。
新西兰Holland Beckett律师事务所的一般法律提告律师塞巴斯蒂安·哈特利(Sebastian Hartley)称,如果没有适当的核查,把工作交给聊天机器人的这种想法会造成风险。“这种核实工作是必要的,因为如果有人依据这些信息而作出了行动,或者把信息打包进行了分享,那么其中就会夹带法律责任。”
但对于AI工具滥用风险,新西兰和澳大利亚现在尚且没有具体的规管框架。“人们还没有真正意识到其中所含的法律影响。”哈特利说,“我们发现,大部分新科技都会存在这种滞后情况,企业在一段时间之后才会开始联络律师,一般来说都会等到出现问题之后。”
隐私数据与机密信息
在ChatGPT和类似“大型语言模型”的预训练过程中,会使用大量文字数据,如书籍、文章、网站等。这就引发了关于AI训练所用数据的隐私和安全方面问题。比如说,如果没有设置关闭ChatGPT的聊天记录,那么所有输入的信息都会进入AI的培训数据。
如果一名保险公司职员在AI搜索当中输入了敏感和私人的客户数据,那么该数据有可能就会被AI用在对其他问题的回复当中。
“如果保险商收集了大量多年老客户的数据,那么就必须想办法进行保护。”克里斯提说道。在工作中,他常建议企业针对此类数据的处理工作建立内部章程,以符合法律要求。
“钓鱼”邮件及其他网络袭击
黑客已经开始使用ChatGPT来撰写较为复杂的“钓鱼”邮件和恶意软件,因而与以往相比,人们愈加难以区别AI和人工撰写的电邮和文本。
这项技术还降低了大型诈骗团伙进行高手法作案的准入门槛。犯罪团体已开始使用ChatGPT来开展针对目标群体的深入学习。因此,企业应会面临新一轮网络袭击,保险商也很有可能面临网络相关索赔数量上升的局面。
保险商应当警惕
以上这些信息对于保险商来说有什么影响呢?哈特利认为,生成型AI可以成为保险商批量处理数据、分析风险的优秀工具,但在使用时必须提高警惕。
“计算机科学家有一句话,叫作‘garbage in, garbage out’(意为:输入的是垃圾,得到的就会是垃圾)。”哈特利说,“这些工具的智能程度局限于用户输入的数据优劣。我认为在未来五年左右,我们可能会对AI持有截然不同的态度,因为AI模型不仅会学习更好地自我审视产出,还会学习对输入数据做出更好的选择甚至推荐。”
苏也认为,保险商必须针对生成型AI建立使用政策和指导原则,并询问现有及意向顾客对于科技工具的使用情况。
“根据我们在网络类业务当中的经验,我们发现保险商一直以来都非常善于在承保流程中进行有效提问,其中就包含客户已有的风险管控手段。”他说,“这对于AI来说也非常重要。”
克里斯提表示,对于保险商来说,ChatGPT明显已出现值得警惕的迹象。“在知道水有多深之前,不要贸然跳入。”这也就代表说,保险商要更关注风险管控,做好尽职调查,并且针对生成型AI工具的使用设立适当的政策。
“(这项技术)可能能为企业和保险商带来许多好处。”克里斯提说,“但企业和保险商必须要对其进行管理,因为如果一直视而不见,等到监管方察觉了这些问题,那就为时已晚。”
道德陷阱
生成型AI主要会产生三大道德问题。
1. 存在偏差、性别歧视、种族歧视的回复
编程偏差是ChatGPT及类似工具的主要缺陷之一。在很多情况下,AI都可能会因为输入数据存在偏见而导致回复当中也包含了种族和性别歧视。
另一个大型语言模型Galactica便是很好的案例。2022年11月,Facebook的母公司Meta推出了Galactica。该工具已吸收了数百万份科学文章、网站、课本、教学笔记的样本文件,旨在为科学界提供服务。但仅仅三天之后,Meta便因为收到了散布不实信息、种族歧视言论等大量负面评价而关闭了该工具。
这些潜在的偏差表明,保险商必须仔细审视任何AI平台产出数据的质量和多样性。
“使用ChatGPT或AI进行数据分析,明显会带来非法歧视的风险。”Holland Beckett律师事务所的塞巴斯蒂安·哈特利(Sebastian Hartley)说,“如果没有有意识地去核实、修正这种偏差,就可能会产生系统性的歧视效果,而这对保险商来说将非常重要。”
2. 抄袭与舞弊
人们在试用ChatGPT的过程中,很快就意识到这个工具可以用于舞弊。目前已有新闻报道说有人利用ChatGPT来在编码比赛中获胜,很多中小学以及大学学生也开始用ChatGPT来代写论文和作业。
但抄袭侦测软件也在快速升级当中。很多大学也开始允许学生在作业当中使用AI,但必须提前作出说明。
侵害知识产权
AI生成作品和内容的权利归属不清,将成为律师和伦理学家接下来所面临的一大难题。其礼律师事务所(Clyde & Co)的埃里克·克里斯提(Alec Christie)表示,生成型AI所带来的版权或知识产权(IP)侵害威胁必须得到重视。
其礼律师事务所已开始帮助客户编写生成型AI使用政策。这些政策会设立规则,涵盖企业需要使用该技术的原因、使用人员、使用目的等要素。
“而且最重要的是,我们如何核查自己对AI的使用是否存在IP侵害的情况?”克里斯提说。
他认为,保险商将因为越来越多的压力而要求客户设立此类政策。
Comments
Remove Comment
Are you sure you want to delete your comment?
This cannot be undone.