在过去的十年里,企业安全团队主要使用AI(人工智能)进行异常检测;检测他们负责保护的系统中的妥协迹象,恶意软件的存在或活跃的对抗活动。这主要是被动检测。有限的资源web 3.0将在预期的经济衰退和2023年web3.0可能的衰退中恶化,这促进了对更自动化响应的需求。目前,这在很大程度上仅限于简单的自动隔离感染设备;然而,更广泛的自动AI触发响应是不可避免的。
人工智能越来越多地被用于威胁检测web 3.0,尤其是在消除web 3.0引起如此多安全关注的‘安全误报’噪声方面,对网络安全产生一定的影响。它将优先考虑需要立即引起注意和行动的安全报警。安全排列、自动化和响应产品将继续在报警分类中发挥更大的作用。这是迄今为止人工智能在安全领域的传统有益用途。虽然使用的算法需要保护,但它将在2023年继续增长,以避免恶意操作。
随着公司寻求降低成本,延长跑道,通过人工智能实现自动化将成为保持竞争力的主力。到2023年,我们将看到人工智能的使用率在增加,使用这种技术的人数在增加,并释放多方面人工智能应用环境。
人工智能将更深入地嵌入业务的方方面面。企业安全团队曾经使用AI(人工智能算法)来保护企业免受攻击,但现在他们需要在更广泛的业务范围内保护AI(人工智能),以免它也被用来对付企业。在未来,当web 3.0攻击者了解人工智能、弱点和利用这些弱点获利时,将变得更加困难。
随着AI(人工智能)使用的增加,其目的性质也发生了变化。起初,它主要用于业务检测的变化;也就是说,已经发生了什么。未来,它将用于预测web 3.0可能发生的事情,这些预测通常集中在人(员工和客户)身上。解决人工智能中众所周知的弱点将变得更加重要。人工智能中的偏见会导致错误的决定,而学习失败会导致无法决定。因为这种人工智能的目标会是人,所以对人工智能的完整性和公平性的需求变得势在必行。
人工智能的准确性取决于数据的完整性和质量。不幸的是,少数群体的历史数据往往缺乏,一旦存在,就会加强社会偏见模式。除非被淘汰,否则这种社会偏见会影响员工中的少数群体,导致对个别员工的偏见,错过管理机会。
在消除偏见方面,2022年取得了长足的进步,并将在2023年继续。这个问题主要是基于对AI(人工智能)输出的检查,确认它是预期的,并且知道算法的哪一部分产生了“偏见”的结果。这个过程是一个不断改进算法的过程,随着时间的推移,显然会产生更好的结果。但是最终还是会有一个哲学问题,那就是偏见能否完全从人类制造的任何东西中消除。
减少偏见的关键在于简化和自动化人工智能系统的监控。如果AI系统没有得到适当的监控,模型中内置的偏差可能会加速或放大。到2023年,我们将看到组织授权和教育人们大规模监控和更新AI模型,并提供定期反馈,以确保AI正在摄入高质量的真实数据。
人工智能的失败通常是由于可学数据湖的不足造成的。显而易见的解决方案是增加数据湖的规模。然而,当主题是人类行为时,这实际上意味着个人数据湖web 3.0的增加。对于人工智能来说,这意味着一个湖更像是个人数据海洋的大量增加。在大多数合法场合,这些数据将被匿名,但众所周知,个人信息很难完全匿名。
在考虑模型训练时,隐私经常被忽视,但是数据不能完全匿名,也不能破坏它对机器学习的影响。人工智能模型已经包含了大量的个人数据,这些数据可能被提取为攻击的一部分。随着AI使用的增加,到2023年,对它的威胁也会增加。威胁行为者不会在网络战争空间中措手不及,而是会变得富有创造力,利用他们的巨大财富,试图找到使用AI和开发新攻击媒体的方法。
成都融和实业排队叫号系统厂家(www.iritqq.com)是一家集研发、生产、营销、服务于一体的高新技术企业.主营智能填单系统、智能查询系统、智能排队叫号系统、医院分诊系统、排队机、叫号机、评价器(好差评系统)、呼叫器、多媒体查询及信息发布配套系统等,公司产品已广泛应用于不动产登记、智慧医疗、智慧税务、智慧政务、智慧金融、智慧通讯、智慧服务大厅、智慧机关单位等服务窗口行业.咨询电话:028-87438905。
标签:AI人工智能,智能安全,网络安全,AI网络安全