GlobalSign 博客

人工智能错误信息:关注和预防方法

大型语言模型(LLM)支持的生成式人工智能系统的出现在2023年成为全球关注的焦点,并定期进行巡回讨论。现在,随着我们进入2024年,人工智能在复杂性和可用性方面继续发展和增长只是时间问题。

开源工具可以快速生成令人信服的文本、图像、视频和音频记录,而且对人类来说非常准确,这种想法一度是万灵药。人工智能在市场上的持续流行引发了专家对其真实性和有效性的巨大担忧,更不用说人工智能和自动化驱动的网络犯罪的兴起了

然而,一个更容易被忽视的问题是,人工智能有编造东西的倾向,这对那些试图在当今竞争激烈、审查严格的数字领域脱颖而出的组织有着严重的影响。不仅如此,部署广泛的人工智能解决方案还会影响企业的内部政策和基础设施,因此存在内部和外部问题。

人工智能有伪造信息的倾向

ChatGPT和其他全球公认的工具,如Bard、Bing Chat、Claude、Perplexity等,经常会出现“幻觉”。 简而言之,这是当语言工具分发的内容不是基于事实证据,而是猜测。它通常归结为特定的工具只是尽可能接近和快速地满足用户的提示或请求,完全忽略了上下文和事实的准确性。

然而,一个根本问题仍然存在。人工智能生成的文本的持续使用在未来几个月和几年里只会增加,有可能传播错误信息、虚假信息和假新闻。现代LLM的创造者被认为使用AI幻觉作为借口,指责工具有缺陷或诽谤的输出,而不是为输出本身负责。

从中得到的主要结论是,由于这已经被允许扩散到这样的程度,它只强调了对任何人工智能生成的内容进行更强的人工监督和监督的必要性。

虽然人工智能有望带来许多好处,但缺乏适当的保障措施、经过深思熟虑的整合和由人类主导的深思熟虑的实施,可能会带来更大的全球担忧。无监督的人工智能应用和工具,以及散播错误信息的话语,可能弊大于利,这就是为什么商业领袖必须在事态失控之前采取积极的预防行动。

理解人工智能的潜在危害

不可否认,企业可以有效地利用人工智能作为一种通过扩大团队来提高生产力和效率的方法。然而,重要的是要超越成本节约的结果和更多完成的任务,并系统地检查人工智能生成的内容。

版权和隐私问题

例如,在AI工具的帮助下,可以近距离地镜像真实相机拍摄的图像。然而,谨慎的做法是检查是否存在侵犯版权或隐私的行为,或者可能被用来延续有害观点的偏见。

如果发现内容侵犯了原创创作者的工作,无监督的AI图像生成可能会导致法律或监管罚款。在许多方面,商业中的营销人员和视觉故事讲述者可以通过使用高质量和有信誉的二手设备拍摄原始图像来避免这种成本效益,但大多数企业仍然可以从使用AI图像生成器中受益,如果他们了解风险。不仅如此,deepfakes和计算机生成的宣传仍然存在争议,这就是为什么企业应该谨慎对待这些工具的使用。

更广泛地说,将人工智能集成到组织的多个方面可能会导致团队变得自满,从而允许更多“隐蔽的”网络钓鱼诈骗从众所周知的裂缝中溜走。因此,未经验证的异常数据可能会在组织的基础设施中横向移动,从而引发一系列网络安全问题

虚假信息永久化

文本生成器也可能传播看起来令人信服的错误信息,因为它的书写方式。与人类的大脑不同,人工智能工具缺乏内在的上下文信息来检测任何文本是否真实。人工智能模型是根据它们聚合的数据以及给出的指令进行训练的,缺乏直觉来判断文本是否有害、有偏见,或对任何事实、数据或证据的无知。

因此,如果用户要求人工智能工具延续强化刻板印象、过时观点或偏见(无意识和有意识)的“人类式”文本,那么这种内容进入公众视线的风险就会更大,尤其是在目前缺乏独立监管的情况下,尽管这种情况即将出现

但是,有责任心的企业只要有远见和警惕,就能有效地跨越这些障碍。以下实践和预防方法旨在鼓励人工智能技术的有益采用,并促进其在您现有基础设施中的道德整合。

如何在道德上整合和实施人工智能以防止虚假信息的传播

识别和隔离“假新闻”是当今整个现代数字生态系统的一个巨大挑战。在公司层面,领导者和营销人员有责任防止任何属于他们的原创内容(无论是文本、图像或视频)延续任何不公平的刻板印象或推广危险或错误的理想。

在将任何人工智能工具集成到现有系统和设置中时,重要的是不要纯粹被它所承诺的节省成本和时间的好处所蒙蔽。在开始探索在人工智能和自动化的帮助下为操作提供动力之前,请确立以下基本规则。

促进真实和准确

任何内容(全部或部分由AI生成)的创造者和消费者都应该小心,并对其真实性和真实性保持一定程度的责任。

企业应该在发布任何文本之前对其进行事实核查,以捕捉任何可能被视为可疑的异常或论点。监督和管理在其发布之前、期间和之后的任何内容,为生成的任何合成媒体提供来源和免责声明的上下文,以保持问责。正确地标记任何人工智能生成的内容,以防止消费者对其叙述感到困惑或麻木

被误导的人工智能内容也可能有长期的网络安全风险,特别是如果人工智能工具聚合和分发数据时没有对其敏感性进行任何过滤。这就是为什么企业必须对人工智能工具进行持续的监督和管理,以确保任何私人数据不会被错误地分发给公众。

人工智能生成的虚构、伪造或夸大的信息最终将被证明更难以发现,特别是随着工具变得越来越复杂。企业必须采取严格措施,在人工智能内容进入公众视线之前核实任何潜在的谎言或虚假叙述,并鼓励错误信息数据的扩散。培养一种透明的文化,促进有条不紊的网络预防,而不是反应优先的方法,将是维护数据完整性和网络安全的关键。

从根本上说,组织应该保持透明度,并公开任何使用生成式人工智能模型和系统的情况,以避免歧义。随着时间的推移,他们应该在内部监督和完善与AI集成的任何系统,以检查它们是否保持了预期的质量标准和准确性。

维护私隐及同意

许多领导人警告称,人工智能带来了重大的人权问题,并有可能深刻扰乱数百万人的生活。虽然考虑到当前的人工智能环境,这些可能并不明显,并且由于生成性人工智能的局限性众所周知,采用以人为本的方法将对寻求利用这种变革性技术的企业至关重要。通过部署实时警报、持续的威胁监测和异常数据识别解决方案,企业可以领先恶意行为者一步,执行网络攻击。

保护员工、利益相关者和消费者的权利和自由应该始终是优先事项。这将归结为,组织在生成可识别人物的图像或视频之前,要获得所有相关方的明确同意,对数据进行匿名,并尽可能保护身份。公司——特别是那些在金融和医疗保健等高度监管行业的公司——受到严格的隐私法律和法规的约束,因此,必须极其谨慎地对待AI集成。

GlobalSign帮助各行各业的企业获得必要的法规遵从性证书。在完全管理和可扩展的PKI数字证书解决方案的帮助下,企业可以获得充分的安心,因为他们知道,随着组织的部分变得更加自动化,法规遵从性将得到维护。在这里了解有关我们的数字认证的更多信息。

促进多样性和代表性

越来越多的证据表明,人工智能系统天生具有无意识的偏见。随着新的工具和解决方案的开发,企业应该有意识地监控和抵消任何这些偏见的实现。

在向团队咨询人工智能集成和测试的建议和反馈时,经理应该寻求不同的观点,并有意识地评估任何不公平或不敏感的偏见,以免永存。

积极考虑误导的内容如何对边缘化群体产生双边影响,并防止这种话语与您的业务联系在一起,始终是明智的。保持包容性应该适用于任何面向消费者的内容,就像任何内部沟通一样。

负责任地采用人工智能技术将被证明是今年及以后企业的一场持续的斗争。然而,在道德和包容性价值观的指导下,公司可以释放巨大的潜力,同时避免与错误信息和假新闻扩散有关的陷阱。

只要细心、勤奋和同情,在这一领域的创新可以由维护人类利益的组织实现,而不是以节省财务为最终目标。


注:这篇博客文章是由一名客座撰稿人撰写的,目的是为我们的读者提供更广泛的内容。在这篇客座作者文章中所表达的观点仅代表作者本人的观点,并不一定代表GlobalSign的观点。

近期博客