自学机器学习、深度学习、人工智能的学习资源集合 -ag凯发k8国际
本人美国top50本科统计就读,想当初我的机器学习和深度学习就是靠自学入门的。现在行业中对于人工智能自学这一方法众说纷纭,也有很多人质疑那些通过自学获得的技术及实力。就我个人而言,我体验过各种各样的课程,也阅读过不少的教材,总的来说,人工智能领域的学习肯定不是一朝一夕可以实现的,这是一场需要很大耐心和精力的旅程。这些课程设计到各种各样的难题,单是通过自学,技术肯定是无法达到炉火纯青的境界的,而且很多时候,光是熟知了各种各样的模型和理论知识,实践的欠缺也能成为致命的短板。
但也不能否定,对于机器学习和深度学习这样相互交叉的学科,市面上的很多教材都能帮助大家入门,打好日后高阶学习的基础。下面就给大家推荐一些我平时学习时使用到的网站和资源:
这套课程是近几年的新课程,需要付费使用,价格在7000-20000元不等。对于某些学生党可能会觉得比较昂贵,但我整体使用下来后,还是觉得是物有所值的。贪心ai每节课程内涉及的案例和练习都比较新,也很符合现在的行业趋势。从机器学习到deep
learning再到进阶学习以及最后的就业班,这套教材一步一步带领大家从最基础的理论知识,如认识人工智能、python入门等开始,系统性的学习。
课程设计
我在学习的时候最喜欢的一点就是这套课程的直观的设计,每节课分成很多的小结,随时点进来都可以跳转到最近的学习进度,而且小标题也能方便快速定位内容。除此之外,每节课内还穿插着很多和本节内容有关的练习帮助巩固所学知识。图文并茂,一段段讲解视频也让枯燥的理论学习变得有趣。
课程内容
我上的这套机器学习中级课程的核心内容均围绕机器学习和深度学习,课程通过案例的实战来加深对技术的理解。它涵盖了很多机器学习包括人工智能领域内的概念如过度拟合、泛化错误、偏倚-变异权衡、经验性风险最小化等。与吴恩达那套课程不同,贪心科技ai课程对于很多数学的知识点,如线性回归、逻辑回归等也都有概括。总的来说,是一套比较完整,适合系统性学习的课程。
我在学习时印象最深的就是这套课程对于泛化错误的讲解。这也是机器学习内一个重要的概念。有时,只要泛化误差不是太大,你训练的模型过度拟合也是可以的。例如,如果你训练一个复杂的模型,在训练集上达到0.2的误差,在测试集上达到0.5的误差,这可能比在训练集上达到0.5的误差,在测试集上达到0.6的误差的简单模型要好。偏差-变异权衡是对这个问题的一种推理方式:什么时候使用更复杂的模型是有意义的,即使它过拟合得更多?而贪心科技ai对于这一部分讲解的很细,内容通俗易懂,而且配套的习题也能做到举一反三,帮助我理解。
学完本课程之后,我个人建议接着深入学习自然语言处理、计算机视觉、推荐等领域。入门课程涵盖了机器学习、推荐系统、自然语言处理几大版块。面对打算从事ai岗位的职场人和在校学生,提供系统化的专业课程,如分类、回归、聚类、集成算法等,而高级课程则是围绕各种实例,进行进一步内容的学习与练习。
机器学习和深度学习领域比较重要的代数和编码知识在这套课程也有着重讲解。贪心学院的机器学习课程内容较多,各种案例也很丰富,这样的设计可以先让大家一步一步了解工程原理,再通过实例的讲解,逐步掌握相应的技术。这种模式可以为日后的工作学习打下坚实的基础,课程学完后可以根据所学融会贯通,灵活性较高,适合利用碎片化时间学习。因为是一套扎实打基础的课程,课程讲解的比较细,范围也很广,可能对于某些想要快速学习,迅速掌握就业技能的人,不太适合。
教研团队
这套课程吸引我的另一点就是其雄厚的师资力量。课程的核心团队由海内外ai专家组建而成,多位合伙人及主讲老师都是业内资深工程师。其教研人员包括前金融独角兽首席科学家、美国google科学家、albert第一作者、美国微软ai总监等专家;多位合伙人及主讲老师都是业内资深工程师。
我在上这节课的时候的导师就是亚马逊的工程师,李文哲老师。他对于每一个问题的讲解都十分细致,尤其是遇到运算问题,都会一步步手写出具体公式。除此之外,他还经常会举一反三,通过举出不同类型的问题,加深我们的记忆。课后的助教对教学也都十分认真负责,每次我提出的问题都会及时解答,就算现在已经结课了,我们也会经常沟通一下最近遇到的问题。
课后练习
除了专门的课后练习系统,贪心科技ai还为学生提供了jupyter和github的使用权限。我在进行ml学习时,就经常会从github上找各种大神的代码和他们新开发的新奇的程序,如随机文章生成器等,这些内容完全可以拿来当成是实践项目进行练习。有时候遇到棘手的问题,我也会上去发帖求助。我自己在学习的时候,从这些资源处受益匪浅。总之github对于人工智能领域的学生和职场人都是一个不可多得的好资源。
除此之外,这节课程也提供了很多其他项目进行练习,如广告点击率预测、情感分析项目、信用卡欺诈预测、零售数据中的用户分层等。每一个项目都会涵盖一定的知识点。大家可以打开jupyter的cell,自己进行代码的编写课后系统的练习每次都会有助教及时批改标注,帮助大家查缺补漏。
相信人工智能领域的小伙伴应该对这个网站都很熟悉这个叫kaggle的平台。它是世界上最大的数据科学家和机器学习专家社区之一。这是一个数据科学托管网站,里面有很多真实的数据集,会让你感觉到数据科学是如何在现实世界中使用的。这些数据集都是预先安装的,没有兼容性问题。这也是应用和测试你对ml理解的最好方法。kaggle上还会有各种竞赛,根据其奖励分为不同类型,主要类型有三个:学习、研究、行业资助。这些比赛很适合初学者,你也可以在其中找到很多如何获得好成绩的文章和样本ag凯发k8国际的解决方案。
不过kaggle不会教初学者如何编程,相对于系统性地学习,kaggle更偏重于掌握数据科学和机器学习技能的地方。像很多初学者一样,刚接触kaggle的我也是十分不知所措。但是对于对编写代码有一定了解的人来说,就完全可以在kaggle上自学机器学习算法。
对于这个网站的使用,我建议大家像我一样,从数据集探索开始。从小的数据集开始导入、分析、可视化数据就不会花费太久了。同时大家也可以尝试在自己感兴趣的领域中选择数据集,这也对进一步的数据分析有所帮助。在逐渐了解这个网站的使用方法后,大家可以转向一些没接触过的领域,探索更多的项目。我在使用kaggle时就从很多大神那里看到了很多有趣的项目如房价回归预测、心力衰竭预测、旅行app酒店点评等等。
如果你的目标是在机器学习领域工作,你可以先试着参与一些ml/dm项目。在这里不一定是指kaggle或个人的项目,而是可以与一些教授一起,这样你就可以获得一些编写ml代码和使用标准ml软件的经验,如weka、libsvm等。和教授一起做项目可以让你把这样的项目添加到你的简历中。
这个资源可以在coursera上找到。这也是前几年比较火的一套课程。网站上除了一些学习资料,还涵盖了很多斯坦福大学的课程。内容不多,也比较简单易懂。这也可以说是我机器学习的第一课,总的来说还是很适合初学者的。课程主要介绍分析数据和建立模型的各种方法,在上课过程中还可以锻炼与人沟通和工作的能力。在整个课程中,我们使用r语言,并同时学习r、统计概念和数据分析的技术。
吴恩达是一位了不起的老师,他的实力也是毋庸置疑的。他非常了解现在人工智能的趋势以及机器学习是如何解决这些问题的。这套课程能让你在没有数学背景的情况下,学习机器学习,但这也是这套教材被诟病的一点。所以我建议,这套教材最好的学习方法是在他的一些课后搭配额外的数学学习。
具体来说,这套课程的内容包括:第一部分第2-5章:应用数学和机器学习基础(包括线性代数、概率和信息论、数值计算和机器学习基础);以及第二部分,第6-8章:现代实用深度网络(深度前馈网络和深度学习的正则化,训练深度学习的优化)。尤其是这一部分对神经网络学习很有帮助,这也被公认为是coursera课程中要求最高的部分。除了每节课内的例题展示,课后coursera还会提供吴恩达本人的笔记和练习题帮助大家巩固所学知识。
人工技能的基础是编程,这个网站主要针对于编程代码,主要是python的学习。我在哥伦比亚大学学习数据科学时就经常使用这个网站。哥伦比亚大学是位于纽约市的常春藤盟校,是美国最古老的学习机构之一。这个boot camp能让你在在课程中完成项目并且课下还能反复review。它是一个学习网站,为那些对于数据科学感兴趣的人提供相应的课程如中级excel、javascript、html5、sql、tableau等。课程内涵盖的数据集都是从金融、医疗、政府、社会福利等领域收集的真实数据集。相较于kaggle的网络论坛形式,这个网站更偏向于提供课程及练习,每个学校都会有他们特定的boot
camp。在这里我使用过也比较推荐的就是哥伦比亚大学的。相比于其他项目,哥大的网站课程招生要求会更高,需要审核,对于学生水平和课程质量都有一定保障,课程难度相对应的,也会比较大。
这个网站自然不必多说,除了机器学习的课程,还有很多人工智能领域的课程可供大家参考。前面提及的吴恩达机器学习课程在上面也能找到。作为拓展,我在学习的时候还在上面上过一些宾夕法尼亚大学的金融课程。这个网站上有很多大企业,如bmi,microsoft,google等提供的训练,还有很多top 10大学提供的专业课程,大家也能通过完成课程获得证书。但是这个网站专业课程相对价格比较高,对学生不太友好。如果大家希望通过参与课程,得到一个含金量比较高的证书或认证的话,这个网站会是一个比较好的选择。不过如果大家想要得到更多练习机会和项目知识的话,建议大家尝试我前面提到的几个网站。
总结
以上是ag凯发k8国际为你收集整理的自学机器学习、深度学习、人工智能的学习资源集合的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇:
- 下一篇: