获奖公布:
本次获得奖励的童鞋有:tree_fox william_djj lbseraph nail78 fenyun689
请以上5位的童鞋在11月30日前将姓名、电话、邮箱、公司、职务、快递地址站短给 yejia80550708
会尽快寄技术图书《深度学习优化与识别》(焦李成) 给大家
争论,随时可能爆发。
比方当你看到一篇名为(Don’t use deep learning your data isn’t that big)的博客时。
作者Jeff Leek在这篇博客中指出,深度学习已经进入一定程度的狂热状态,人们正试图用这个技术解决每一个问题。但真正的挑战在于:“只有极少数情况下有足够的数据进行深度学习”,不是每家都有科技巨头的数据。
深度学习与更简单的模型相比,优点在于有足够的数据来调整大量的参数,博主建议当数据集不是那么大的时候,应该采用一些更简单、更可解释的办法,而且不用担心过拟合等问题。
Leek这篇文章火了不到一周,哈佛大学药学院的生物医药信息学专业博士后Andrew Beam写了篇文章来反驳:《就算数据不够大,也能玩深度学习》。
Beam开篇就说,之前Jeff Leek那篇文章看得他有点不爽。核心论点他大致同意,他也不觉得深度学习是万能良药。但是,你确定深度学习在数据量不足100的时候效果不好是因为过拟合?怎么看都是因为模型没调好啊……
有人举例说明,有人现身说法。讨论甚至从数据大小,一直延伸到各种深度学习方法的比较,乃至应用领域等。
传送门:Jeff Leak的文章:
https://simplystatistics.org/2017/05/31/deeplearning-vs-leekasso/
Andrew Beam的文章:
http://beamandrew.github.io/deeplearning/2017/06/04/deep_learning_works.html
Andrew Beam的代码:
https://github.com/beamandrew/deep_learning_works
话题背景: 随着研究的不断深入,后深度学习时代已经超越了目前机器学习模型的神经科学观点,学习多层次、多通道组合的这一设计原则更加具有吸引力。深度学习是人工智能领域最能体现智能的一个分支,在未来,它将会不断出现激动人心的理论进展和应用实践,深刻影响我们生活的方方面面。
话题讨论:
1.数据不够大,别玩深度学习?还是就算数据不够大,也能玩深度学习。 2.深度学习中,训练模型需要多少数据?应该如何发掘这些数据? 3.深度学习对无监督数据的学习能力严重不足,那么要解决的是有监督学习问题,还是无监督学习问题?如果是无监督学习问题,如何获取无监督学习能力? 4. 脑神经科学的进步为深度模型的发展提供更多的可能性,深度神经网络的优化问题的困难性是阻碍它们成为主流的一个重要因素,优化神经网络的“困难性”在哪里?
活动时间:9月13日—10月13日
活动奖励:我们将会选取5个精彩回复,各送技术图书《深度学习优化与识别》(焦李成) 一本
作者:焦李成 出版社: 清华大学出版社 ISBN:9787302473671 出版时间:2017-07-01 开本:16开 版次:1 分类:计算机与互联网 > 人工智能 > 深度学习
样章试读:file:///C:/Users/aaa/Documents/tencent%20files/2504593583/filerecv/第3章.pdf
file:///C:/Users/aaa/Documents/tencent%20files/2504593583/filerecv/样章-第十五章.pdf
SACC 2017 来啦~
2017中国系统架构师大会(SACC2017)将于10月19-21日在北京新云南皇冠假日酒店震撼来袭!
今年,大会以“云智未来”为主题,云集国内外顶级专家,围绕云计算、人工智能、大数据、移动互联网、产业应用等热点领域展开技术探讨与交流。本届大会共设置2大主会场,18个技术专场;邀请来自互联网、金融、制造业、电商等多个领域,100余位技术专家及行业领袖来分享他们的经验;并将吸引4000+人次的系统运维、架构师及IT决策人士参会,为他们提供最具价值的交流平台。
欢迎扫码 关注SACC官方微信 ,获取最新信息
-------------------------------------------------------------------------------
欢迎大家发帖讨论,分享是美德,也希望CU这个平台带给大家进步和成长,有任何问题,请站短联系!
技术讨论,请加QQ群:203848540
ChinaUnix公众微信:
|