美国联邦机构:生成式AI用例激增,部署却遇多重阻碍
过去一年,美国联邦政府机构在人工智能领域呈现出一种复杂态势:一方面,人工智能用例数量呈现出爆发式增长;另一方面,在将这些用例转化为实际部署应用时,却遭遇了重重困难。
美国政府问责署(GAO)受国会委托,对联邦政府人工智能部署情况展开深入调查。此次调查基于12个选定机构中11个机构提供的人工智能用例清单,国防部虽参与审查,但因涉及安全机密,免于提交清单。
从数据上看,联邦机构在人工智能用例方面的增长十分显著。2024年,联邦机构报告的人工智能用例数量达到了1110个,与2023年的571个相比,几乎翻了一番。若聚焦于生成式人工智能用例,增长幅度更是惊人。2024年确定的生成式人工智能用例数量为282个,而2023年仅有32个,增长幅度接近9倍。
在这282个生成式人工智能用例中,不同阶段的项目分布各有特点。约56%(159个)的项目已经启动,或者正处于采购、开发阶段;约41%的项目正在实施过程中,或者已经投入运营;而剩余的少数项目则因各种原因已经终止。
从应用领域来看,联邦机构的人工智能项目呈现出多样化的特点。其中,61%的项目集中在内部任务支持工作上。这些工作涵盖了运营支持、改善内部沟通以及优化业务流程等多个方面。例如,通过人工智能技术对日常运营数据进行实时分析,为决策提供更准确的依据;利用自然语言处理技术优化内部沟通流程,提高信息传递的效率。面向公众的政府服务人工智能是第二大热门领域,像聊天机器人、虚拟助手等应用,能够为公众提供更加便捷、高效的服务。此外,医疗应用也是联邦机构关注的重点领域之一。退伍军人事务部利用人工智能技术自动化部分医学影像处理工作,大大提高了诊断的效率和准确性;卫生与公众服务部则借助人工智能的力量,对脊髓灰质炎病毒的传播进行监测和预警,有效遏制了病毒的再次爆发。
然而,美国国家航空航天局(NASA)在生成式人工智能用例方面却显得有些“落后”。它是2024年受审查机构中唯一一家未报告生成式人工智能用例的机构,尽管其在2023年的清单中列出了相关活动,但这一转变值得关注和深入研究。
尽管美国联邦政府机构在推动人工智能发展方面拥有诸多优势,如庞大的预算支持和总统的政策鼓励,但在实际实施过程中,它们仍面临着与私营企业类似的问题。GAO在与12个机构交流后发现,8个机构表示难以获得足够的计算资源来支持其人工智能工作负载,其中7个机构将此归咎于资金不足。计算资源的短缺不仅影响了项目的开发进度,还可能导致项目质量下降。例如,在训练复杂的生成式人工智能模型时,需要大量的计算资源和数据支持,如果资源不足,模型可能无法达到预期的性能。
同时,6个机构提到在寻找或培训人工智能专业人才方面面临挑战。人工智能领域是一个高度专业化的领域,需要具备深厚数学、计算机科学和统计学知识的人才。然而,目前市场上这类专业人才供不应求,各机构在招聘和培养人才方面都面临着巨大的压力。此外,即使招聘到了合适的人才,如何留住他们也是一个问题。由于人工智能领域的竞争激烈,优秀的人才往往容易被其他机构或企业挖走。
除了上述普遍问题外,各机构还共同担忧人工智能工具可能会输出有偏差的数据或凭空捏造内容,即所谓的“幻觉”问题。这一问题在医疗、金融等对数据准确性要求极高的领域尤为严重。如果人工智能模型输出的数据存在偏差或错误,可能会导致严重的后果,如误诊、错误的投资决策等。因此,5个机构在采用人工智能时持谨慎态度,对人工智能工具的可靠性和准确性进行了严格的评估和测试。
国防部和NASA还特别指出,大多数生成式人工智能系统仍是“黑箱”,缺乏透明度。这意味着人们无法了解人工智能模型是如何做出决策的,也无法对模型的决策过程进行解释和验证。在军事和航空航天等关键领域,这种缺乏透明度的情况可能会带来潜在的安全风险。例如,如果人工智能系统在军事决策中出现错误,而人们无法了解其决策依据,就很难及时纠正错误,避免严重后果的发生。
此外,政府机构还存在一些特有的问题。由于政府机构的组织架构复杂,决策流程繁琐,导致工作节奏通常较为缓慢。在人工智能这样一个快速发展的领域,这种缓慢的工作节奏使得政府机构在政策和实践方面难以跟上技术的发展步伐。12个政府机构中有10个特别关注监管问题,它们均表示现有联邦政策可能未充分考虑到生成式人工智能的特点和需求,或者可能对其采用构成障碍。以网络安全为例,政府机构需要遵守众多的法规和政策,这些法规和政策往往相互交织,增加了合规的难度。一些生成式人工智能用例可能因为无法满足所有法规要求而难以实施,或者需要投入大量的时间和成本来进行合规改造。
同时,几个机构还报告称,在获取所需的人工智能产品时面临困难。获得美国政府的FedRAMP认证是一个耗时且复杂的过程,该认证旨在确认商业软件符合政府云安全标准。由于认证过程漫长,一些机构可能无法及时获得所需的人工智能产品,从而影响了项目的进度和实施效果。
针对政府机构在人工智能实施中存在的这些不足,GAO在此次报告中虽未提出正式建议,但指出各机构正在积极利用现有资源来推动人工智能的发展。例如,各机构正在利用美国国家标准与技术研究院发布的现有框架来指导其生成式人工智能工作。这些框架为机构提供了在数据管理、模型开发、安全评估等方面的指导原则,有助于提高人工智能项目的质量和可靠性。
报告作者、GAO科学技术评估与分析部门主任坎迪斯·赖特(Candice Wright)强调,对于希望部署生成式人工智能系统的机构来说,借鉴成功团队的经验至关重要。通过学习其他机构在项目实施过程中的最佳实践和教训,可以避免走弯路,提高项目的成功率。同时,赖特也指出,政府机构在人工智能实施过程中面临的问题不会自行消失,需要各机构持续关注并采取有效措施加以解决。