专栏名称: 人工智能头条
专注人工智能技术前沿、实战技巧及大牛心得。
目录
相关文章推荐
黄建同学  ·  ebook2audiobookXTTS,又一 ... ·  2 天前  
宝玉xp  ·  转:ChatGPT o1 preview ... ·  3 天前  
爱可可-爱生活  ·  Janus ... ·  5 天前  
51好读  ›  专栏  ›  人工智能头条

机器学习安全不容忽视

人工智能头条  · 公众号  · AI  · 2017-07-06 08:35

正文

来源 | CACM

编译 | 孙薇


过去五年中,机器学习技术获得了长足的进步。之前,这只是一个很有希望但并不成熟的技术,而如今在很多任务上,机器学习这项技术都可以达到与人类接近的水平。在不久的将来,从无人驾驶汽车到虚拟助手,再到人脸识别软件,多项直接影响社会的技术都可能会使用到机器学习。


恶意输入影响机器学习


然而在进步发展的同时,我们也要考虑安全问题。通过恶意输入,机器学习算法可能在训练期间“中毒”,或者在训练之后被复制。通过对图像进行人眼几不可见的微小改变,黑客可以愚弄视觉处理系统,对其进行欺骗。上图左侧的校车和狗在经过微调后,成为了右侧的图片。在人眼看来几无差别,但却可以欺骗视觉处理系统,将其识别为“鸵鸟”。


专家警告:不要等到机器学习算法用于数十亿台设备之后,再考虑被黑客攻击的问题。在机器学习的相关论文中,研究者们多次提出机器学习的不准确性——对某些像素进行微调,就能欺骗,神经网络。原因在于:虽然这些复杂的网络由多层处理器组成,但各个层面本质上都是通过分段线性函数来转换输入内容的,这种线性使得相关模型对推论容易盲从。


研究人员发现,他们设计了一个案例以愚弄某个机器学习算法,却同时骗到了其他机器学习算法。这意味着攻击者只需了解到相关的模型,知道该算法对数据分类的方式,就能使用这些数据来训练或攻击不同的模型。


研究者认为,目前正是考虑机器学习安全问题的最佳时机。软件开发者习惯在事后进行总结,修补Bug,而不是将其集成到开发阶段。而机器学习是一个巨大的领域,我们应当从最开始就考虑到安全的问题。目前已有解决对策:将黑客所使用的误导案例也添加到机器学习库里,为机器学习算法“接种疫苗”,这样将会让神经网络更难被欺骗。




7月22-23日,本年度中国人工智能技术会议最强音——2017 中国人工智能大会(CCAI 2017)即将在杭州国际会议中心拉开序幕。汇集超过40位学术带头人、8场权威专家主题报告、4场开放式专题研讨会、超过2000位人工智能专业人士将参与本次会议.

目前,大会 8 折优惠门票正在火热发售中,扫描下方二维码或点击【阅读原文】火速抢票。