目前的计算能力难以训练大型的深度学习模型,比如GB级的模型训练过程对带宽要求很高。GPU比CPU更适合训练深度学习模型的原因之一是,相对于内存来说显存的带宽更大米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台。另外模型很大往往会过度拟合基准数据,并不会从样本中提取更抽象的特征,在实际应用中,如果深度网络有偏差将会带来非常严重的后果。比如在训练自动驾驶的数据集中,不会有婴儿坐在马路中间。深度神经网络对标准的对抗性攻击很敏感,这些攻击会对图像造成人类难以察觉的变化,但会改变神经网络对物体的认知。Alan Yuille说这些问题的背后都是组合爆炸导致的,真实世界的图像利用组合观点来看数量太大了,从一定程度上说是无限的。任何一个数据集,不管多大,都很难表达出现实的复杂程度。
从专用智能算法到通用智能算法是下一代AI发展的必然趋势,也是研究与应用领域需要挑战的问题。通用智能被认为是AI皇冠上的明珠,从目标来看,通用智能意味着神经网络泛化能力的提高,为了解决这个问题,科研人员进行了各种努力。从正则化技术到dropout技术再到BN技术,这些技巧从一定程度上减缓了神经网络过度拟合的问题,提高了泛化能力。但是这些只是技巧,并不能从根本上解决问题。目前解决这个问题的方法是迁移学习,迁移学习是将一个场景中学到的知识迁移到另一个场景中。比如我们可以将利用猫和狗图像训练的分类模型迁移到其他相似的任务,用来分别鹰和布谷鸟。利用迁移学习,在一个模型训练任务中针对某种类型数据获得的关系也可以轻松地应用于同一领域的不同问题。迁移学习一定程度上缓解了标记数据的压力,对于我们接近通用AI迈进了一步。米乐M6(MiLe)亚洲官方网站- 赔率最高在线投注平台(访问: hash.cyou 领取999USDT)