{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
随着人工智能(AI)技术不断进步和成熟,近年来在各个行业得到爆发式增长,尤其是ChatGPT等生成式人工智能(以下简称“AIGC”)工具的问世,拓宽了AI工具在各个行业应用的可能性。但与此同时,AI工具的应用也将为企业带来新的挑战和风险。AI技术的有效治理,已成为其赋能社会生产和商业应用的关键前提和基础,以及业内广泛关注的话题。
2023年7月13日网信办公布《生成式人工智能服务管理暂行办法》迎来首个国家AIGC监管文件,面对颠覆性技术所带来的新型风险提供意见和指导。各个国家地区的法案也在积极筹备之中,AI全生命周期的监管将会愈发严格,AI治理将不再浮于原则讨论,其工程化落地已是大势所趋。
AI技术已逐渐融入到我们日常生活和商业活动中,其应用场景按技术角度来看,当前AIGC技术主要在文本(如Large language model,简称LLM)、跨模态(如Diffuser)、视觉(如Segment anything model,简称SAM)等方向快速发展,并赋能至办公、金融、泛娱乐、教育、智能驾驶等多种行业。在编码领域,AI编程辅助工具能够帮助开发人员自动识别、扩展补全代码,还可进行实时交互问答,显著降低软件使用门槛并提升生产力及工作效率。在文本领域,国内外厂商发布了融合AI的办公应用工具,包含提供智能校对、智能辅助写作、优化和续写文字内容、自动汇总会议纪要、搜索公司内部知识库等一系列的AI辅助办公功能,旨在帮助用户提高工具生产力。在企业资源计划解决方案(Enterprise resource planning,简称ERP)系统中,通过增加AIGC工具功能,提高企业内部运营流程的效率和效果。
企业应用AI工具提高企业运营效率、降低成本,助力企业实现数字化、智能化战略转型,但应用AIGC工具可能带来的风险也不容忽视。目前AIGC工具仍面临部分技术瓶颈与挑战,主要体现为:
对于AIGC工具,影响其模型准确性和丰富性的关键因素,包括算法和模型的技术能力,要求模型参数规模至少在100亿以上级别,部分头部厂商甚至在千亿、万亿级别;大量用于训练使用的技术资源;大规模的算力、电力和资金投入;顶级的开发者团队与工程构架能力。
AIGC工具生成的内容可能存在涉黄、暴恐、违禁、个人隐私等风险,或开发者使用爬虫工具抓取数据用于模型训练,导致其产品或服务侵害社会公众利益、他人合法权利等内容合规问题。
目前大模型训练仍会产生高额成本,AIGC厂商的工程架构能力对于降低大模型训练成本至关重要。
新的技术工具应用及技术漏洞可能带来的安全问题,以及满足各国数据安全、个人隐私保护合规要求的挑战,例如训练数据的主体权利等问题。
使用AIGC技术,可能给企业带来战略、市场、运营、合规、甚至是财务风险。例如:
建立有效的AIGC工具治理评价体系,是应用AI技术的重要基础。为了降低风险,企业在使用AIGC工具之前,应通过整合的“AIGC工具风险评估框架”,对工具能力进行综合评定。其评定的方向和内容建议包括以下四个方面:
企业自身也应采取一系列的措施,以应对AIGC工具应用所带来的风险,如制定严格的数据安全和隐私保护政策、实施有效的内容审查和过滤机制、加强员工培训、扩充团队及合作伙伴的知识技能、建立完善的法律合规和知识产权保护机制、重新审视公司的风险管理体系、以及调整“三道防线”的责任等。同时,企业需要与利益相关者进行沟通和合作,共同制定行业标准、规范和道德准则,以确保AIGC工具合法、合理和可持续的使用。
普华永道致力于帮助AI服务厂商和企业之间建立“AI能力信任”,通过“AIGC工具风险评估框架”,帮助企业对AI工具的治理情况进行综合评估,识别和管理应用AI工具的潜在风险和可能出现的意外结果。此外,普华永道紧跟全球对于人工智能发展立法的进度及政府监管态度,深度解读最新监管政策要点,帮助企业提前防范知识产权侵权、隐私安全、生成内容滥用等合规风险。
扫描微信二维码
订阅#人工智能内容
在新兴技术快速迭代、瞬息万变的商业环境中,社会各界已经身处人工智能(AI)的革新时代。普华永道不仅密切关注人工智能领域最新发展,更从公司层面积极推进AI战略。秉持负责任的态度,普华永道专注探索AI商业化应用,分享前沿法规与资讯解读,为企业及个人提供科技驱动的AI解决方案,为未来蓄势赋能。
如您希望更深入地讨论新时代全球AI监管合规风险和趋势,敬请联系以下普华永道团队: