新的生成式人工智能和下一代 ChatGPT 工具将如何影响公司应对合规挑战的方式?
面向公众的生成人工智能 (AI) 工具 ChatGPT 自 2022 年底推出以来一直占据着新闻头条。事实证明,它的应用程序在从客户服务机器人到写作帮助的各个方面都很有用。
这项技术在金融领域也有用例;事实上,不良行为者和企业合规专业人士都在寻找新技术的用途。
ChatGPT由OpenAI开发,是一款由AI技术驱动的自然语言处理工具,允许用户进行类似人类的对话,并选择工具将响应的所需长度、格式、风格、详细程度和语言。语言模型可以回答问题并帮助您完成任务,例如撰写电子邮件、论文和代码。
根据瑞士银行瑞银的分析,ChatGPT 是 有史以来增长最快的应用程序,据估计,ChatGPT 在推出仅两个月后的 1 月份就有 1 亿活跃用户。
快速增长导致该技术超出了监管能力。事实上,如果没有标准,人们就可以利用他们可以利用的漏洞。
从历史上看,人工智能一直被归为拥有专业知识的个人,但生成式人工智能是一个新类别,其中包括更易于访问的工具,例如 ChatGPT、微软的 Copilot 等。
然而,这意味着恶意、善意或无意的人都可以利用这项技术,这可能是一个非常危险的前景。
被诈骗者利用
主要担心的是不良行为者可以利用这项新技术做什么以及他们可能会针对这些骗局瞄准谁。
“诈骗者历来都处于技术的最前沿,我认为这没有什么不同,”皮埃蒙特南部和北卡罗来纳州西部商业改善局首席执行官汤姆·巴塞洛米 (Tom Bartholomy) 解释道。
“当他们看到这项工作,当他们看到人们参与其中时,他们就会继续完善它,并继续寻找可以将相同技术融入其中的其他骗局。”
众所周知,欺诈者会利用新技术,尤其是在新技术的起步阶段,这正是我们目前在 ChatGPT 上所处的阶段。我们预计欺诈者会利用生成式人工智能工具来利用以下一些领域:
更具说服力的网络钓鱼电子邮件;
更有说服力的冒充者通过电话诈骗信息;
假冒 ChatGPT(或类似)浏览器扩展和应用程序;
ChatGPT(或类似工具)创建的恶意软件;
威胁个人身份信息泄露的数据泄露。
虽然随着 Chat GPT 的发展,这些骗局现在都受到关注,但随着技术的发展,它们将变得更加普遍且更难以识别。个人必须始终保持高度警惕,并保持超出先前建议的怀疑态度。
除了实际犯罪之外,生成式人工智能还存在缺陷的风险,包括提供不准确、不可靠或不充分的信息。此外,在需要实际人类接触的情况下,这些缺陷可能会提供额外的障碍,从而可能导致已发生的损害。
被诈骗分子使用
生成式人工智能最明显的用途是聊天机器人或虚拟助手。可以完成编程以提供实时支持并管理帐户活动。
聊天机器人使用少量编程代码来执行简单的功能,其基本思想是代码可以更及时地提供更好的客户服务。事实上,它通常可以满足客户对即时帮助的需求。
在为客户提供服务的角色中,从商业角度来看,人工智能可能具有一定的效用,但从监管角度来看,这项技术还有其他用途,这些用途也很重要。
银行和其他金融机构现在可以使用编码来创建可用于满足监管要求或弥合监管差距的程序。他们可以监控交易、自动化入职流程,并正确识别与之开展业务的个人。
尽管许多监管机构尚未发布与在金融交易中使用机器人或人工智能相关的指导方针,但金融机构应采取内部措施,例如在引入聊天机器人和其他人工智能技术时更新其反洗钱和客户关系政策和程序根据最近发布的法律指南,自动化面向客户的互动。
“这些新政策和程序应考虑到客户将不再与经过培训以寻找可疑行为和危险信号的员工互动,并确保所使用的技术足够复杂,能够继续发现并向监管团队发出潜在危险信号的警报。”
在试图超越网络犯罪分子的同时,银行和金融机构现在可以采取以下一些步骤:
开始持续不断的员工培训;
警惕报告诈骗和其他可疑活动;
使用基于风险的审批和监控流程纳入新技术;
监控新的或不断变化的监管要求和技术进步。
与任何其他技术一样,生成式人工智能具有行善和推动社会进步的潜力;然而,它也有可能造成巨大危害。对于金融服务行业组织或其他在金融领域工作的组织来说尤其如此。
正如 ChatGPT 生成的内容可以愚弄受害者一样,它也可以用于保护资产并提高合规性 - 当前的任务是平衡潜力。
微信