AI是福是祸?LeCun、吴恩达等圈内大神做出2019年新预测
他说:“我试图引用了几个我认为对实际应用十分重要的领域。AI的实际应用会遇到一定的阻碍,但我认为这些阻碍都会被解决。”
在未来一年里,吴恩达很高兴看到人工智能及机器学习研究两个领域都取得了进展,这将有助于推动整个领域的发展。一方面是AI能通过更少的数据得出精确的结论,该领域的一些人称之为“少量样本学习”。
他说:“我认为深度学习的第一波进展主要是大公司利用大量数据创建巨大的神经网络,对吧?所以如果你想创建一个语言识别系统,就需要进行10万小时的数据模拟。如果想创建机器翻译系统,就需要模拟极大量的平行语料库中的句型,从而创造出很多突破性结果。现在我越来越多地看到从小数据中出的成果。所以即使你有1000张照片,你也可以尝试去做出点什么结果。”
令一方面则是被称为“通用可见性”的计算机视觉方面的进展。计算机视觉系统经过斯坦福大学高端X光机拍摄的原始图像的训练,效果可能会非常地好。很多该领域的先进公司及研究人员已创造出了比放射科医生更出色的系统,但它们并不是很灵活。
“但如果你把你的训练模型应用到拍摄图片有点模糊的低端X光机或是其他医院的X光机上,遇到技师让病人右转,导致角度有些许的偏离的情况,结果就会是相比于今天的算法,放射科医生会做的更好。因此我认为有趣的研究是尝试提高学习算法在新情境中的通用性。”
Yann LeCun
Yann LeCun是纽约大学教授,Facebook首席AI科学家及人工智能研究院(FAIR)创始人。Facebook人工智能研究院开发了PyTorch 1.0、Caffe2及其他大量的人工智能系统,如Facebook每日使用上十亿万次的文本翻译AI工具和先进的下围棋的强化学习系统。
他坚信FAIR为其研究及工具所采用的开源政策推动了其他大型科技企业采用该政策,而这推动了AI整个领域的发展。在上月的NeurIPS大会和FAIR 50周年之际,LeCun将FAIR称为一家致力于“可实现各种可能的机器学习的技术及数学腹地”的研究院。
他说:“当更多人开始讨论AI研究时,整个领域将更快的向前发展,对AI研究来说这影响重大。今日AI发展速度之快主要是因为更多的人进行了更快更有效的交流,并做了更多的开放性研究。”
在伦理层面,LeCun很高兴看到公众开始思考AI工作所带来的伦理影响及带有偏见的决策所带来的危险。
他说:“情况与俩三年前不同了,现在人们已充分认识到伦理方面的问题。”
他认为AI领域中的伦理与偏见问题现在还并未成为需要立即采取措施的主要问题,但他认为人们应提前做好准备。
就像现在还未出现急需解决的重大生死攸关问题一样。但问题迟早会来,我们需要了解这些问题并防患于未然。
如吴恩达一样,LeCun期待未来会有更多灵活的AI系统。这些系统不需原始输入数据或精确条件,就可以得到准确的输出。
他还提到,虽然研究人员可通过深度学习来很好地处理感知,但却对AI系统整体的架构缺乏理解。
要想教会机器通过观察世界去学习,需要自我监督学习或基于模型的强化学习。
他说道:“不同的人对此称呼不同,但人类与动物都是通过观察与了解大量的背景知识来感知世界是如何运作的。我们还不知道如何让机器学会这么做,这是一项巨大的挑战。这项研究的成果将会推动AI与计算机的真正发展,从而让机器具备一些常识,让人们能与机器助手就更广泛的话题进行交流,并不再感到沮丧。”
对于有助于Facebook内部运营的应用,LeCun称在自我监督学习及需少量数据输出准确结果的人工智能等方面取得的进步将是十分重要的。
他还提到,在问题的解决过程中,我们希望找到减少特定任务如机器翻译、图像识别等任务所需数据量的方法,在这一方向上我们已经取得了一定的进展。我们已经通过使用弱监督或自我监督学习对Facebook机器翻译及图像识别产生了深远影响。因此,这些影响不仅仅是长期的,更能带来短期效果。
在未来,LeCun期待见到AI在建立事件之间的因果关系上能取得进展。这一能力并不仅仅通过观察获得,更需通过实践理解。例如,当人们在使用雨伞时,很可能是下雨了。
他提到,如果你想机器通过观察来了解世界运作原理,它必须要知道它能够做什么要想影响世界,这是十分重要的。假设你在一间房中,你的前面是一张桌子,桌上有一个像水杯样的物体,你知道你推一下水杯,水杯会移动,但你却无法移动桌子,因为桌子又重又大。这类事情都是与因果相关的。
希拉里·梅森
在2017年Cloudera收购Fast Forward Labs之后,希拉里·梅森出任了Cloudera机器学习的总经理。Fast Forward Labs虽被收购,却仍在运营之中。它为用户提供应用机器学习报告与建议,从而预测未来半年到两年企业的发展方向。
2018年,AI领域中的一项与多任务学习相关的发展让梅森感到惊讶。多任务学习可训练单个神经网络在推理时应用多种标签,例如在一幅图像中看到的多个对象。
Fast Forward Labs一直就AI系统的伦理影响为客户提供建议。梅森也意识构建AI系统伦理框架的重要性。
梅森说道:“这正是自成立了Fast Forward 我们一直在做的事。5年前,我们在每篇报告中都撰写了伦理方面的规范。但今年,公众才开始真正关注伦理规范。到明年,对此莫不关注的企业与个人都会承担相应的后果与责任。有一点我没有说清楚,我希望未来在数据科学与AI发展的实践中,技术人员和商业领袖在开发AI产品时都能自主地考虑道德和偏见问题,而非像今天熟视无睹。”
随着未来一年越来越多AI系统成为商业运营的一部分,梅森期待处于最佳位置的产品经理及产品负责人将会对AI做出更多的贡献。
她表示:“显然,了解产品整体框架及行业的人知道什么产品是有价值的,什么是没价值的,他们也知道谁是投资方向上的最佳决策人。所以如果让我预测,我认为那些使用电子表格建立简单模型的人会变得很低能,他们自己也会很快意识到将AI应用到自己产品中的机会非常之少。”
AI民主化或将 AI 扩展到企业除数据科学团队外的所有部门,是很多公司所强调的,如 Kubeflow Pipelines及AI Hub等谷歌云AI产品,以及 CI&T 公司为确保人工智能系统在公司内部得到实际利用提出的建议。
梅森认为越来越多的企业需要构建管理多个AI系统的结构。
如开发运维人员所面临的挑战一样,单个系统可使用手动部署的定制脚本来管理,cron脚本也可管理几十个系统。但当管理有安全、管理及风险要求的企业中的数百上千系统时,需要的是更专业、稳健的工具。
她还提到,企业正在从寻求有能力及才华的人才向系统化追求机器学习及AI机遇转变。
由于Cloudera 近期推出了基于容器的机器学习平台,因此对于梅森来说,强调部署AI所需的容器是有意义的。她坚信这一趋势在未来几年将会持续下去,从而企业可在本地AI及云端AI部署两者中做选择。
梅森还相信AI的业务将不仅仅在单个公司而是整个行业中继续不断发展。
她说道:“我们将看到AI专业实践的持续发展。如果你现在是一家公司的数据科学家或机器学习工程师,当你跳槽至另外一家公司后,你的工作将会完全不同:不同的工具、不同的期望和不同的报表结构。但我想一致性还是存在的。”
图片新闻
最新活动更多
-
11月30日立即试用>> 【有奖试用】爱德克IDEC-九大王牌安全产品
-
即日-12.26火热报名中>> OFweek2024中国智造CIO在线峰会
-
即日-0120限时下载>>> 爱德克(IDEC)设备及工业现场安全解决方案
-
限时免费下载立即下载 >>> 2024“机器人+”行业应用创新发展蓝皮书
-
即日-2025.8.1立即下载>> 《2024智能制造产业高端化、智能化、绿色化发展蓝皮书》
-
精彩回顾立即查看>> 【线上&线下同步会议】领英 跃迁向新 年度管理者峰会
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论