一时之间,火爆出圈。写得了代码、作得了诗,甚至还能完成学术论文,“小能手”引起了各行各业的无限遐想。

如果将应用金融行业,会有哪些可能性呢?21世纪经济报道记者就此向金融从业人员发起采访后发现,答案主要集中在以下几个方面:写企业宣传稿、写研报、做客服、做催收、营销、专业分析等。

对于在金融领域的应用,有人充满了期待,有人并不乐观,也有人表示担忧。

率先落地于哪些金融场景

“生命的舞台上,我们都是基因的载体”,“如果说基因给我们的生命带来了基础,那亲情便是对生命的深刻赋予。它不由基因驱使,而是一种慷慨的选择”。这两句诗充满浪漫主义色彩,从生命的角度对亲情做出了不一样的阐述。

如果不透露答案,你能想到这是聊天机器人所写吗?最近,招行信用卡在官方微信公众号发布了名为《首秀金融界,招行亲情信用卡诠释“人生逆旅,亲情无价”》的推文,这两句诗正是出于此。据了解,这是金融行业首次尝试于大胆生产宣传稿件。

不过,这并不能严格算是的独立作品,而是朱明杰博士等AI专家与招行信用卡合作的结果。招行信用卡从客户需求出发,对内容生产、金融产品与合作伙伴生态,实践了自己的思考和理解;AI专家们则从AIGC(AI ,即利用人工智能技术来生成内容)模型生成特性的角度出发,展开了有趣、有意义的实验。

有金融业人士笑称,“以后写不出材料,也许可以问一问。”实际上,还真的有人这么做了。为测试能否用于研究报告撰写,财通证券李跃博团队采用撰写了一篇医美行业研究报告。

据该团队介绍,“从过程来看,搭建报告框架、生成文字并翻译共花费约1小时。从结果来看,不可否认的是,在文字表意、标题撰写等方面均具有较高水平,但采用该种直接生成+翻译模式形成的报告仍具有以下问题:在标点和术语方面存在明显错误、无法得知引用数据来源及可靠性、部分复杂语句翻译后表意不清晰。”

除内容创作之外,金融从业者对在其他方面的应用也有所期待。“可能率先在客服产品咨询知识库等方面应用,比如,用在营销、运营领域,用于宣传、接待以及内容生成。在技术门槛下降后,将会出现垂类领域的,如风险、运营态势评估,专业分析等。”有银行金融科技负责人向记者直言,若是有成熟的,也许会考虑购买相关服务。

在众多的畅想中,应用于银行客服被提及得更多。有人认为,“当前的电子客服,并不能称得上是人工智能,能把天聊死。”对于这一点,某金融科技公司技术专家告诉21世纪经济报道记者,“智能语音、智能客服、智能催收都是在金融上很好的落地点,能聊得下去,比现在这种AB判断的智能语音要更贴近现实一些。”

从现实应用的形态看_chatgpt 在现实中的应用_应用到实际当中

中关村科金技术副总裁张杰在接受21世纪经济报道记者采访时表示,的能力可以分成chat和GPT两部分,即上层的对话能力和底层的大规模语言模型能力。关于对话能力,在金融领域对话的应用场景会很多,比如:外呼营销、客服中心、员工培训、线上营业厅等。

张杰指出,关于语言模型能力,除了生成对话、生成图片外,还带来的一个惊喜,就是涌现出了思维链推理能力,在提示下它可以将复杂的任务分解成一步步的子任务。这就大幅拓展了AI的应用范围,除了替代简单重复的体力劳动,还能替代简单重复的脑力劳动,辅助做一些复杂的脑力劳动、创造性工作。比如:营销文案撰写、根据文章自动配图。

关注的安全性、可靠性

“可以用,但不是直接用”“也有一些风险,就看怎么用,交互的内容可能会变得不可控”“远远没有达到可以应用这个程度,因为还在摸索”……当真正谈论起在金融场景下的应用,无论是银行,还是科技公司,都表现出了十分谨慎的态度。

上线于2022年11月底,一经推出就在社交媒体走红。瑞银集团发布研报称之为“史上增长最快的消费者应用”,5天注册用户就超100万,月活破亿仅用了2个多月。2月7日,官方网站表示,“许多人在最近一小时内蜂拥而至我们的网站,但我们的网络资源是有限的。”

在网上,有人向提问——银行业如何才能最好地使用技术?对此,回答称:银行业可以通过多种方式使用技术来改善运营并为客户提供更好的服务。

例如,可用于自动化客户服务任务,回答常见问题或提供有关产品和服务的详细信息。这可以让客户服务代表腾出时间专注于更复杂或高价值的任务,从而提高整体效率和客户满意度。此外,可用于从大量数据中生成见解和分析,使银行能够快速轻松地获得对其运营的宝贵见解,并做出更明智的决策。未来,技术可能会变得更加强大和通用,从而使银行能够将其用于更广泛的任务和应用程序。

张杰强调,“在金融应用场景下不是简单的闲聊,机器人不仅要模拟真人回复,还要有领域知识的注入,要兼顾答案的准确性和可控性,不能‘一本正经地胡说八道’。”从撰写的医美行业研究报告也不难看出,该技术还有待完善,或者说还不能独立使用,而是需要人工配合。一位银行的技术负责人向21世纪经济报道记者表示,“在金融场景的应用真正落地,也许还需要2-3年之久。”

正如所说,等人工智能语言模型无疑是一项重要的科技成果,但同时面临着一些挑战和风险。据其所言,是基于巨大的数据集训练出来的,这意味着它在回答问题可能存在偏见和错误;以及其他类似的模型可能被用于恶劣的,例如传播虚假信息和滥用个人信息。

虎符智库研究员李建平告诉记者,如同其他人工智能模型一样,是把双刃剑,既可以是提升效率的工具,解答人们的各种问题、创造出大学水平论文,甚至编写代码。同时也可能被绕过安全机制,用于实施有害的活动。比如,对网络安全行业来说,既可以用来编写网络钓鱼、生成恶意软件、开展社工攻击,也成为网络防御者的有力工具。因此,我们看到相继被不少机构封禁(Stack 、高校、顶级协会等),部分原因是模型目前仍然会生成一些虚假错误内容,并且难以辨别。

对于如何规避所带来的安全问题,他认为,从安全防护的角度来看,的运营机构需采取针对性的应对措施。对等类似模型进行培训,标记恶意的活动和恶意代码,避免其向恶意人员提供;同时对设置难以绕过护栏,提升恶意人员利用其生成恶意内容、开展恶意活动的门槛。