[tr]一年多以来,人工智能(AI)主导了公共话语,从非正式对话到认真考虑其造福或破坏社会的潜力。在评估如何安全地使用人工智能时,重要的是检查机会和危险,因为它们现在存在或可能在短期内发展。人工智能创建内容和自动化操作的能力代表了人工智能在许多领域(包括网络安全)中使用的新前沿。
[tr]软件和数据的技术进步将对数字安全产生巨大影响。基于人工智能的工具,无论是用于自动化、认知还是生成,都可以用于好的方面,也可以用于坏的方面。例如,分析潜在入侵的网络流量的工具也可以用于使入侵更难检测。用于生成类似人类内容的工具可以很容易地用于合法和非法目的。[tr]ChatGPT的公开发布是一个罕见的时刻,一项新技术立即主导了公众的心理。在此后的一年里,这种对话并没有消退;事实上,人工智能工具(生成性或其他)的影响,以及它们如何改变社会的好坏,已经成为广泛政策辩论的一部分,从对劳动力的影响到教育,再到国家安全。这包括对网络安全的影响,生成性人工智能是否会加剧新的攻击?防御者是否会使用它来更快地检测恶意活动?[tr]人工智能对网络安全并不陌生。防御者和攻击者多年来都在使用机器学习和人工智能工具,但专家一致认为,生成性人工智能的公共可用性将重塑网络安全格局。然而,对于这将如何发生,还没有达成共识。对于这些人工智能工具的最终用户(无论是公司、政府、个人还是其他组织)现在可以做什么,以最大限度地提高人工智能对攻击者的效用,并最大限度地减少对攻击者的好处。[tr][tr][tr][tr]场景[tr][tr][tr][color=rgba(0, 0, 0, 0.9)]好的方面
如果防御者能够提高安全响应时间、增强人类专业知识并提高软件和设备安全性,那么人工智能工具将为他们提供优势。人工智能工具为各种目的对大量数据进行排序:为修复漏洞排定优先级,检测数据渗出,识别异常的用户行为等。有了这些新见解,这些工具被调整为减轻已确认的威胁(例如,通过隔离端点、阻止恶意URL或沙箱恶意操作),并升级需要更多分析的威胁。人工智能还增强了最终用户体验,在用户报告异常或主动提醒他们时准确有效地帮助他们,并帮助解决工具本身识别的问题。这种早期和准确的检测减少了响应时间,最大限度地减少了对误报的浪费,并有助于标记,否则可能无法检测到的真正威胁。因此,防御者能够将其有限的资源集中用于可能需要人类理解的调查。
人工智能也是通过设计原则实现安全的关键。人工智能工具将编写新的安全代码,并通过发现和修复漏洞来帮助更新现有代码。它甚至可以用更安全的语言重写现有的应用程序。随着攻击的发展或研究人员发现新的漏洞,这些工具将不断更新和改进代码。
工智能工具本身将是安全和负责的。它们产生高质量、准确的结果,并在未能做到这一点时负责。这包括区分恶意篡改和工具中所谓的“幻觉”的能力。人类处于中心位置,知道何时与人工智能系统交互,知道输出中的任何潜在限制和风险,并可以在更高风险的场景中干预或覆盖人工智能系统。人工智能驱动的网络安全工具保持了攻击者的优势,因为他们可以访问多个高质量的数据源,而攻击者必须更多地依赖“黑市”数据。
[color=rgba(0, 0, 0, 0.9)][tr]坏的方面 [tr]如果攻击者能够提高攻击效率,实现犯罪协作,并比防御者适应和响应更快地学习,那么人工智能工具将为攻击者提供优势。人工智能工具减少了参与犯罪的进入障碍,并使开发复杂的社会工程技术、逃避检测、设计定制恶意软件等变得更加容易。[tr][tr]有了这些新的效率提升,人工智能使网络攻击变得更便宜、更有效,提高了犯罪的预期回报。使用人工智能工具,犯罪分子可以更快地找到现有系统中要利用的漏洞。此外,他们可以创建个性化的鱼叉钓鱼活动,以增加成功的可能性。一旦罪犯进入系统,他们就可以使用定制的恶意软件,这些恶意软件可以针对特定的目标进行定制。在发起了许多这样的活动后,他们可以使用机器学习来查看什么是有效的,并在未来的活动中修改他们的策略和恶意软件。[tr]人工智能还改变了犯罪的市场结构,改善了攻击者的分工,使他们能够更有效地使用资源。全球网络防御的不平等分布导致攻击者在资源较少的国家部署基于人工智能的网络攻击。勒索软件变得更加有利可图,因为犯罪组织现在可以更容易地与流氓国家合作,扰乱目标国家的经济。[tr]工智能行业缺乏问责制和质量控制,使得更难追究国家或公司对不当使用复杂工具的责任。恶意人工智能平台在法律限制较少的司法管辖区开发,然后部署在世界各地。因为罪犯可以更自由地创新,他们能够设计攻击,即使是支持人工智能的防御也会因为它们的新颖性而与之抗争。这种社会环境变成了一个恶性循环,进一步侵蚀了对数字经济、社会制度和客观真理的信任。[tr][tr][tr]建议[tr][tr][tr][tr]一般建议[tr][tr]1、避免炒作。抵制AI浪潮的诱惑;在具有操作性或其他意义的方面使用人工智能工具。[tr][tr]2、主动管理人工智能将做出的决策。人工智能工具将做出组织无法单独审查的决策,因此部署它们时要预先考虑和仔细规划。对于人工智能工具将做出哪些决策以及在什么级别做出肯定的选择是很重要的。以下因素有助于:1)评估使用考虑中的人工智能工具的潜在好处和危害,2)确定决策循环中必须保留的行动或过程:- [tr]需要多少人类认知?这是一个重复的战术讨程,还是一个创造性的战略决策?后者更可能需要人类的持续参与。[tr]
- [tr]行动、过程或最终结果需要多少质量控制或审查?随着质量变得至关重要,倾向于深思熟虑的人类审查。
- [tr]错误决策的影响或风险是什么?越严重,人类应该控制得越多。[tr]
- [tr]决策的频率如何,快速做出决策的重要性如何?人工智能擅长做出重复的决策,并以人类永远无法实现的速度前进。[tr]
- [tr]人工智能工具是补充人类决策还是取而代之?如果是后者,则权衡人工智能错误与人为错误的成本和收益,并为关键任务选择开发故障保护和审查机制。[tr]
- 决定是否不可逆转?如果是这样,请谨慎行事,并确保组织能够在不可逆转的错误决策中生存下来。
[color=rgba(0, 0, 0, 0.9)][tr] 3、了解人工智能正在使用的数据类型。人类永远不可能知道人工智能使用的所有数据,但在可能的范围内,组织应该了解所使用的数据源。优先考虑对内部或专有的 王冠宝石”数据进行更强大的安全控制。[tr][color=rgba(0, 0, 0, 0.9)][tr]4、说“不”是可以的。在部署、构建或完成人工智能工具之前,评估它的表面好处是否会大大超过潜在危害。如果一个工具的可预见危害明显大于好处,请不要使用或构建它,或者至少确保您的组织可以有效地控制它。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]5、认识到旧规则仍然适用。人工智能工具可能看起来是新的、闪亮的和强大的,但不要忽视信息技术安全、网络安全和数据安全的既定基础。几乎所有长期使用的工具和最佳实践都适用于大多数人工智能开发和用例。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]6、智能透明。透明度是一件好事,但组织应避免将重要通知变成无意义的点击,通常称为同意疲劳”。通知应披露与用户和工具效用相关的信息,包括隐私问题或人类监督的程度。组织应该避免让消费者过度饱和,以至于他们的信息披露毫无意义或被忽视。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]7、想想社交媒体(因为人工智能正在阅读它)。组织应更新社交媒体和通信政策,以认识到大型语言模型(LLM)正在使用帖子和其他通信作为训练数据,并说明对手可能利用的信息。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]8、日志、日志和更多日志。良好的日志对网络安全至关重要,人工智能驱动的漏洞利用和攻击的潜力只会加剧这一点。组织应改进日志记录、日志审查和日志维护,以最大限度地提高检测新的、人工智能生成的攻击的能力,并遵守必要时进行合法授权的审查(包括通过使用人工智能工具)。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]9、让人类处于代码循环中。人工智能编写的代码应该比人工编写的代码更安全,但维护漏洞管理最佳实践的人工和技术审查仍然很重要。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]10、不要将人工智能从其他IT、网络和其他学科中孤立出来。定期召集所有相关团队,如网络安全、法律、数据科学、计划/产品团队和行政领导层,就人工智能网络安全风险进行合作。当人工智能工具对组织的目标或运营产生重大影响时,组织应考虑为首席人工智能官开发新的角色。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]11、要有弹性。在人工智能工具中断的情况下,组织将需要一个弹性计划,包括培训其员工执行人工智能自动化任务,以便他们能够维护关键任务操作。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]12、在合同需求和义务中反映人工智能。与供应商、合作伙伴和其他人的合同可能需要包括对专有数据的限制,包括: [color=rgba(0, 0, 0, 0.9)][tr]
13、创造开放的文化。人工智能已经在为钓鱼电子邮件和其他欺诈提供支持,这些欺诈通常以初级员工为目标。如果员工不敢接触高层领导,他们更有可能无法报告风险,或落入冒充高管的骗局。授权员工与高级领导层接触,确保沟通(特别是采取行动或分配资金的指示)合法。[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]政府特定建议[tr] [color=rgba(0, 0, 0, 0.9)][tr]
1、识别高风险人工智能工具。政府应确定可能造成极端伤害并监控其使用的人工智能工具。在人工智能工具具有对社会具有高风险的用例的情况下,政府应考虑获取该工具的知识产权,并为低风险用例颁发许可证。[color=rgba(0, 0, 0, 0.9)][tr]2、促进获得开源网络安全工具。帮助网络贫困线以下的组织访问开源网络安全工具,帮助防止基于人工智能的攻击,审查代码,并提供培训数据。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]3、提供教育机会。支持整合人工智能、数据科学和网络安全技能的大学课程和认证。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]行业特定建议[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]1、坚持基本原则。人工智能工具和模型从根本上说是软件,开发人员和部署人员应该利用现有的网络安全性、弹性和设计原则的安全性。这包括: [color=rgba(0, 0, 0, 0.9)][tr]
[tr]信任和授权 [tr]身份和访问管理 资产管理 [tr]网络访问控制/隔离策略 [tr]漏洞管理 [tr]持续监测
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]2、使信息共享变得简单而平常。公司应使用现有的标准化安全信息共享结构,如结构化威胁信息表达(STIX);可信的智能信息自动交换(TAXII),以及用于人工智能网络安全目的的国家漏洞数据库。在这些不太适合的方面,公司应该共同努力,并与政府一起开发促进快速轻松共享的协议。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]3、默认情况下记录。人工智能模型或工具的开发人员应将登录构建到人工智能工具中,用于网络安全、审计和其他合法授权的目的。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr][tr]展望[tr][tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]好的方面:AI极大地提高了网络安全性[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]现代人工智能工具可以帮助组织快速识别和应对威胁,并提高其网络安全工作人员的效率和效力,从而使世界更安全地免受网络安全威胁。公司高管和IT安全领导者可以使用人工智能来优化决策、评估风险,并做出财务上合理的运营决策。安全团队可以使用人工智能工具来分析大量数据,并检测异常活动或恶意用户。这将使防御者能够更多地关注需要人类理解的调查。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]如果防御者利用人工智能相对于攻击者的优势,这一未来将是可能的。下面是人工智能工具如何提供这些独特优势的具体描述。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]1、提高防守队员的效率[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]人工智能增强了组织以更高的速度和更少的资源更有效地运行现有网络安全流程的能力。人工智能工具通过处理大量数据和识别异常行为来实现这一点。这些人工智能工具可以更早、更准确地检测威胁,使分析师能够更快地采取行动。虽然攻击者传统上受益由于攻击执行的不对称优势,防御者依赖于不确定的检测信号。人工智能工具改变了这种平衡。具体功能包括: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]早期和准确的检测减少了对假阳性的浪费,并有助于标记真阳性,否则可能无法检测到以进行进一步调查。评估团队使用人工智能工具,通过更好的度量、可视化和决策树来进行更有效的决策。一些示例包括: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]如果怀疑有恶意活动,人工智能工具会部署自动安全措施,以缩短检测和缓解之间的时间: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]这些能力对网络安全工作人员有几个影响: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]最后,人工智能可以提高现有和新代码的安全性和质量: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]2、防御者供应链中的更好关系[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]人工智能工具也在提高服务质量,以及在网络安全过程中如何对待用户。组织正在使用人工智能工具开发更有效的客户服务聊天机器人,以适应用户的知识和能力。人工智能工具实现这一点的一些方法包括: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]3、AI责任和质量的改进[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]人工智能工具正在生成高质量、准确的结果,并在它们未能做到这一点时负责。组织可以区分恶意篡改和大型语言模型(LLM)中所谓的“幻觉”,LLM提供自由文本输出。人类始终处于中心位置,知道何时与人工智能系统交互,输出中的任何潜在限制和风险,以及在更高风险的场景中,可以干预或覆盖人工智能系统。组织理解人工智能输出,并可以区分恶意篡改的实例,可能会将这些实例移交给政府。这通过以下方式实现: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]与大多数攻击者相比,防御者在更有效地使用人工智能的能力上具有优势,因为最佳模型需要大量高质量数据,这些数据仅可用于最大的组织或最复杂的民族国家。因此,政府和公司比犯罪企业更有效地使用人工智能工具。防御者在这方面也受益于: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]坏的方面:AI严重危害网络安全 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]如果犯罪分子和流氓国家能够利用现代人工智能工具来提高其攻击、协作和学习速度,使其超过防御者的适应速度,则可以增强攻击者的能力,并使防御者处于不利地位。企业网络罪犯可以使用人工智能工具来编写恶意软件,而不管他们的编码知识如何。他们可以与流氓国家合作,利用该国对高质量数据的访问来训练人工智能模型。然后,犯罪分子和流氓国家都将改进其攻击技术和能力,以避免被发现,将其用于盗窃、间谍活动或破坏性攻击。由于攻击者将使用防御者无法访问或使用的模型和数据集,因此防御者只能对每次入侵做出反应,此时攻击者可以转向新的人工智能生成技术。这些工具的速度和功能将最大限度地减少修改攻击的成本,而防御攻击的成本则以无法控制的速度增加。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]如果人工智能使攻击者比防御者具有明显的优势,那么这种未来将是可能的。下面是对人工智能工具在未来如何发挥作用的具体描述。 [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]1、提高罪犯的效率[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]人工智能使网络攻击变得更简单,成本更低。犯罪动机更高,因为人工智能工具可以提高几种类型攻击的回报和成功率,例如: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]2、刑事供应链中的更好关系[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]人工智能工具还影响参与网络犯罪的实体类型以及它们之间的互动方式。最初,人工智能模型使用大量高质量的数据集,这些数据集通常仅可用于合法组织和责任国家。随着时间的推移,犯罪集团和较小的流氓国家的反应是联合和整合他们的努力,为恶意使用创造类似的工具。这种融合增强了犯罪行为者的能力: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]此外,人工智能工具的民主化降低了希望参与网络犯罪的潜在行为者的进入壁垒: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]在目标方面,使用人工智能的组织必须依赖于少数拥有这些大型数据集的供应商。这在供应链中创建了集中的漏洞点,攻击者可以利用这些漏洞向其目标施加大规模成本。攻击者可以通过以下方式利用这些漏洞: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr][tr]3、AI责任和质量方面的困难[tr] [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]人工智能工具经常生成质量差、不准确的结果,很难与非人工智能内容区分开来。此外,模型和开发人员不应对这些错误负责。通过降低发起某些类型的网络攻击的成本,对手现在可以将其攻击外包给更小、更隐蔽的实体,从而更难追究这些国家的责任。防御人工智能攻击的成本远远超过开发它们的成本,能力差距正在扩大: [color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
[color=rgba(0, 0, 0, 0.9)][tr]
|