一、簡(jiǎn)介
在人工智能領(lǐng)域發(fā)展迅速風(fēng)口浪尖中,我國(guó)在這方面人才儲(chǔ)備與美國(guó)相比數(shù)量懸殊較大、領(lǐng)域內(nèi)專家數(shù)量非常有限。目前人工智能進(jìn)入了黃金時(shí)代,各大科技公司都在大量招募人才,甚至不惜重金“挖人”,在一些知名招聘網(wǎng)站上對(duì)于人工智能方面的人才已經(jīng)開(kāi)出了20k的薪資。在人工智能的研究進(jìn)一步深入后,將會(huì)和多個(gè)學(xué)科發(fā)生關(guān)聯(lián),從而引發(fā)更大的人才缺口。
人工智能技術(shù)是一個(gè)系統(tǒng)化工程,由python、Tensorflow、數(shù)學(xué)、框架、機(jī)器學(xué)習(xí)以及神經(jīng)網(wǎng)絡(luò)搭建等多學(xué)科組成的一門(mén)綜合學(xué)科。它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器。深度學(xué)習(xí)是人工智能的一個(gè)分支。這一輪的人工智能的革命的代表是深度學(xué)習(xí)的突破。
二、人工智能人才薪酬現(xiàn)狀
超過(guò)70%深度學(xué)習(xí)從業(yè)者 |
20-50K/月 上不封頂 |
應(yīng)屆畢業(yè)生 |
9K/月 |
10 年以上優(yōu)質(zhì)人才 |
薪酬比后端開(kāi)發(fā)翻了近一番 |
2000 人以上大公司 |
25.2K/月 |
聲音認(rèn)知人工智能 |
2016年的20.5K/月,2017年的27.6K/月 |
三、培訓(xùn)課程
(一)Python
基礎(chǔ)語(yǔ)法 |
1.Python基礎(chǔ)介紹、python版本差異介紹與環(huán)境搭建 |
2.Python語(yǔ)法基礎(chǔ)與數(shù)據(jù)類型 |
|
3.Python序列(字符串、列表、元組)操作 |
|
4.Python語(yǔ)句、賦值、表達(dá)式、if條件語(yǔ)句、while語(yǔ)句,for語(yǔ)句 |
|
5.Python面向?qū)ο蟆⒑瘮?shù)、模塊、類 |
|
6.運(yùn)算符重載、類的設(shè)計(jì)、異常 |
|
7.Python文件操作、JSON、XML、線程、時(shí)間和日歷 |
|
8.正則表達(dá)式、爬蟲(chóng)、Python網(wǎng)絡(luò)編程 |
|
9.Python圖片處理框架:SciPy,Matplotlib、PIL、OpenCV2 |
|
10.科學(xué)計(jì)算框架:Pandas、Numpy 服務(wù)器框架:Flask |
(二)數(shù)學(xué)
微積分基礎(chǔ) |
1.極限 |
2.求導(dǎo)(導(dǎo)數(shù)的幾何意義,鏈?zhǔn)角髮?dǎo)法則) |
|
3.求最小最大值 |
|
4.泰勒級(jí)數(shù) |
|
5.積分的意義 |
|
線性代數(shù) |
1.什么是線性代數(shù) |
2.矩陣與矩陣的變換 |
|
3.矩陣的逆 |
|
4.特征值與特征函數(shù) |
|
5.相似變換 |
|
概率統(tǒng)計(jì)(一) |
1.概率基礎(chǔ)(經(jīng)典概率、條件概率、加法規(guī)則、乘法法則) |
2.貝葉斯公式 |
|
概率統(tǒng)計(jì)(二) |
1.概率分布(高斯分布等) |
2.參數(shù)估計(jì)(最大似然法) |
|
3.信息論基礎(chǔ) |
(三)框架
常用科學(xué)計(jì)算框架 |
1.numpy |
2.pandas |
|
3.matplotlib |
|
4.OpenCV(基礎(chǔ)部分) |
|
Tensorflow(一) |
1.安裝 |
2.圖概念 |
|
3.語(yǔ)法基礎(chǔ) |
|
Tensorflow(二) |
1.多GPU,多機(jī)器 |
2.并行化 |
|
3.其他開(kāi)源機(jī)器學(xué)習(xí)框架 |
(四)、深度學(xué)習(xí)
機(jī)器學(xué)習(xí)基礎(chǔ)(一) |
1.什么是機(jī)器學(xué)習(xí) |
2.線性回歸與邏輯斯蒂回歸 |
|
3.最小二乘法 |
|
4.梯度下降法 |
|
5.樣本相關(guān)知識(shí) |
|
6.效果衡量指標(biāo) |
|
深度學(xué)習(xí)基礎(chǔ)(二) |
1.感知機(jī) |
2.MLP網(wǎng)絡(luò)和BP算法 |
|
3.深度學(xué)習(xí)基礎(chǔ) |
|
4.稀疏自編碼 |
|
5.實(shí)戰(zhàn):a. 圖像壓縮、b.MINST數(shù)字分類 |
|
卷積神經(jīng)網(wǎng)絡(luò)(一) |
1.基本運(yùn)算(卷積、池化、RELU等) |
2.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) |
|
3.深度剖析CNN網(wǎng)絡(luò)優(yōu)于MLP網(wǎng)絡(luò)的原因 |
|
4.實(shí)戰(zhàn):a. 圖像分類 |
|
卷積神經(jīng)網(wǎng)絡(luò)(二) |
1.常見(jiàn)的CNN網(wǎng)絡(luò)(AlexNet、Vgg、Resnet、Interception等) |
2.遷移學(xué)習(xí) |
|
3.實(shí)戰(zhàn) |
|
循環(huán)神經(jīng)網(wǎng)絡(luò)(一) |
1.RNN網(wǎng)絡(luò) |
2.LSTM和GRU網(wǎng)絡(luò) |
|
3.雙向循環(huán)神經(jīng)網(wǎng)絡(luò) |
|
4.實(shí)戰(zhàn) |
|
循環(huán)神經(jīng)網(wǎng)絡(luò)(二) |
1.Seq2Seq |
2.注意力模型 |
|
3.詞嵌入模型 |
|
4.實(shí)戰(zhàn) |
|
生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)(一) |
1.對(duì)抗學(xué)習(xí)基礎(chǔ) |
2.DCGAN |
|
3.WGAN |
|
4.條件GAN |
|
5.InfoGAN |
|
6.實(shí)戰(zhàn) |
|
深度強(qiáng)化學(xué)習(xí)(一) |
1.強(qiáng)化學(xué)習(xí)基礎(chǔ) |
2.深度強(qiáng)化學(xué)習(xí) |
|
3.實(shí)戰(zhàn) |
|
深度強(qiáng)化學(xué)習(xí)(二) |
1.A3C算法 |
2.AlphaGo算法分析 |
|
3.實(shí)戰(zhàn) |
四、培訓(xùn)方式及地點(diǎn)費(fèi)用
(一)培訓(xùn)形式:公開(kāi)課;
(二)培訓(xùn)時(shí)間:周末/工作日;
(三)培訓(xùn)方式及地點(diǎn):重慶市/成都市;
(四)學(xué)習(xí)時(shí)長(zhǎng):理論2個(gè)月+實(shí)踐1-2個(gè)月;
(五)費(fèi)用:26800/人。
五、報(bào)名咨詢
400 850 7318