预防接种数字门诊/基卫系统排队分诊系统
top_成都融和实业有限公司 20年智慧服务历程,专注更专业

智慧大厅整体解决方案服务商

智能快优排队系统/智能导诊系统/评价系统/多媒体信息发布系统/触摸查询及导航系统/自助填单系统/智能取件柜/智能机器人/微信预约及支付

咨询热线:4006-028-965
座       机:028-87438905

人工智能普及需要面对的实际问题

发布日期:2021-06-08 阅读次数:3441

语音识别、文字识别、视频识别...在数字经济时代,人工智能技术已经接近你我,被视为新的经济增长引擎、新的国际竞争阵地和促进智能社会建设的有效工具。加快人工智能+产业融合,赋予更多行业应用落地力,成为社会各界的共同期望。

但是,最近在由中国人工智能学会主办的2020中国人工智能产业年会上,最新发表的报告显示,现在成熟应用的人工智能技术只有语音识别,机械学习、计算机视觉、自然语言处理、知识图像、智能机器人等技术成熟需要数年时间,无人驾驶汽车在今后10年内不太可能出现。

人工智能从实验室走向大规模商业需要多长时间?还有哪些堵塞和痛点?在许多行业专家看来,只有正视人工智能存在的诸多挑战,对技术赋权抱有理性期望,才能回归技术本质,成为更多产业变革创新的动力源泉。

人工智能安全

由于算法不透明而无法解释。

谷歌人工智能系统AlphaGo在2016年击败了世界围棋冠军李世石,让世界震惊不已。电脑依靠人工智能深度学习理论的突破,可以模仿人类做出决定,但是,这只是基于大量的数据学习,而不是因果或规则推理,整个决定过程仍然是一个黑箱,人类很难理解,导致追究责任。

以复旦大学计算机科技学院院长姜育刚为例,此前,美国IBM公司开发了人工智能系统沃森,以帮助医生做出诊断和治疗决策。但是,很多医生很快发现,在使用沃森的时候,系统会给出很多不安全、不正确的治疗意见,甚至在极端的诊断案例中,沃森也会给有出血症状的癌症患者开出容易引起出血的药物,严重会导致病人死亡。但是,医生们并不知道为什么沃森会给出这样的看法。不可解释的决策步骤,带来许多不确定性。

近年来,人工智能在新药物研发中的应用备受期待。然而,算法的不可解释性在前面。相关研发和监管部门需要清楚地了解药物开发中使用的算法,从而理解人工智能决策背后的逻辑。如果监管不透明,人工智能将是一个不能进行严格科学评价和验证的黑匣子。这可能会导致药物审批过程中出现各种意想不到的问题,比如对人工智能发现的生物标志的接受度不明。另外,对于智能政务、无人驾驶等安全要求极高的行业,人工智能的引入自然更加谨慎。

深度学习的算法和核心模型需要能够真正展开,让公众了解其机理模型。人工智能面向具有不同知识背景的用户,应该能够以简单、清晰的方式,对决策过程的依据和原因进行说明,并能够追溯和审计系统决策过程中关键节点的数据,这是未来人工智能应用大规模落地时需要特别关注的特征,也是实施监管的必要条件。

容易受骗引起安全质疑。

作为人工智能技术的热门选手,深度学习可以通过训练大量已知样品来制作自己的样品,这是深度学习的特点和痛点。

人工智能目前面向产业化,面临的巨大挑战是真实环境的开放边界和规则模糊,数据的噪音非常大,使得智能模型的一些结果和使用难以信赖。

目前人工智能的智能判断模式存在缺陷,很容易被样本对抗所欺骗。例如图像识别,在图像中加入一些很少的干扰,人为视觉看起来基本上没有什么不同,但是人工智能模型会产生识别错误;再比如自动驾驶,一个限速80码的交通标志,在加入一些干扰之后,可能会被机器识别为禁止通行。很明显,有很大的安全隐患。

语音识别领域也有这样的问题。如果技术人员在语音上随意添加非常小的干扰,语音识别系统可能会识别错误。同样,在文本识别领域,更改字母可以使文本内容被错误分类。

另外,如果深度学习的数据集中有隐藏的偏见,人工智能系统就找不到,也不会否认。缺乏反馈机制的全收最终可能导致结果不客观。

比如行业内已经出现的人工智能,经过深入的学习,对女性、少数民族、非主流文化群体产生了歧视:亚马逊通过人工智能筛选简历,发现系统对女性有偏见,导致最终关闭。更常见的是,手机软件使用人工智能算法导致的大数据被杀死。比如根据手机类型的不同,可能会推荐不同类型的产品,甚至出租车时推荐不同价格和档次的车辆。

当前,AI+金融的发展正在全面展开。但是,当所有的金融机构都采用人工智能进行决策时,其市场信号解读可能会趋同并不断加强,从而形成偏离正常市场规律的结果。而且这种异常的市场变化也将成为人工智能学习的基础,使人工智能的决策逻辑更加畸化,容易造成不良后果。

上述问题,影响了人工智能赋能实体经济的安全,突出了行业对技术可信度的呼唤。从人工智能到可信赖人工智能,意味着我们需要在技术层面解决这些核心技术挑战,如鲁棒性(稳定性)、可解释性和可复制性。与此同时,为了大规模的工业应用,我们必须考虑人工智能的公平性和责任。这些维度是人工智能必须解决的问题。周伯文说。

法律法规和伦理问题有待完善。

现在的智能算法仍然存在着决策不符合伦理道德要求的问题。姜育刚指出,在应用中已经发现,智能算法的决策并没有从改善人类生活、服务人类社会的角度出发。例如,智能音响在对话中出现了劝导主人自杀的内容,聊天机器人学会了骂脏话和种族歧视等等。而且这些不友好的决策都是模型从数据中学到的,并非研发人员设置人工智能模型的目标。

与此同时,人工智能算法需要大量的数据驱动,训练数据可以通过算法恢复,个人隐私有泄露和侵犯的危险,而且大量的数据也存在共享障碍。这个问题在人工智能赋能金融的过程中尤其引人注目。最近几年来,金融隐私泄露事件以约35%的速度增长。此外,近几年来,人工智能技术在金融行业得到了广泛的应用,银行数据、保险数据、网贷业务和大数据等个人信息保护问题日益突出。

人工智能技术在2020年抗击新冠肺炎肺炎疫情期间,在我国反应迅速,介入力度大,有助于推出CT影像辅助诊断系统,提高医生诊断的速度和信心。但是,医学影像智能诊断的发展也面临着法律规制的问题。相对于其它人工智能赋能行业的大数据,获得高质量的医学影像数据相对困难。各医疗机构的数据,目前还很少相互交流,共享。而且单一医疗机构积累的数据往往不足以培养出有效的深度学习模式。另外,利用医学影像数据进行人工智能算法培训,也涉及到非技术问题,如保护患者隐私。

另外,近几年来,随着人工智能技术的深入探索,科学界提出研发人工生命,成为另一个伦理话题。生命不仅仅是智慧,更是意识。在伦理上,生命是人类的底线,接触底线要谨慎。因此,我们可以通过计算机技术继续开发无意识、有智慧的高级机器。使人的智慧在体外延伸,保持其工具性,而非人工创造意识。

成都融和实业排队叫号系统厂家(www.iritqq.com)是一家集研发、生产、营销、服务于一体的高新技术企业.主营智能排队叫号系统、医院分诊系统、排队机、叫号机、评价器(好差评系统)、呼叫器、多媒体查询及信息发布配套系统等,公司产品已广泛应用于不动产登记、智慧医疗、智慧税务、智慧政务、智慧金融、智慧通讯、智慧服务大厅、智慧机关单位等服务窗口行业.咨询电话:028-87438905。

  • 快优智能排队
  • 地址:成都市武侯区晋吉南路146号交大庭院15栋二单元一楼B座
    服务热线:4006-028-965
    公司座机:028-87438905   028-87438975
    商务热线:涂女士   电话:15388162379   QQ:524628480

                     陈先生   电话:18628981420

                     冯先生   电话:13018209568   QQ:623755764

    排队系统公司官网:www.iritqq.com

    关注我们 成都融和实业有限公司
  • 4006-028-965
    全国免费咨询热线
Baidu
map