「ai工程師技能樹」的推薦目錄:
- 關於ai工程師技能樹 在 コバにゃんチャンネル Youtube 的最佳解答
- 關於ai工程師技能樹 在 大象中醫 Youtube 的最讚貼文
- 關於ai工程師技能樹 在 大象中醫 Youtube 的最佳貼文
- 關於ai工程師技能樹 在 Re: [請益] 想從零開始轉行當AI軟體工程師- 看板Soft_Job 的評價
- 關於ai工程師技能樹 在 AI 時代下,資料科學工作者技能樹該怎麼點? - YouTube 的評價
- 關於ai工程師技能樹 在 看到網路上一篇有關矽谷Data Scientist 需要哪些技能的文章 ... 的評價
- 關於ai工程師技能樹 在 ai工程師技能樹2023-精選在Instagram/IG照片/Dcard上的焦點 ... 的評價
- 關於ai工程師技能樹 在 【職場跨域講座】 工程師技能樹養成計畫 Youtuber器材旅人 ... 的評價
- 關於ai工程師技能樹 在 資工所技能樹:空集合- 研究所板 - Dcard 的評價
- 關於ai工程師技能樹 在 【演講筆記】 NVIDIA GTC 2020 - 辛西亞的技能樹 的評價
- 關於ai工程師技能樹 在 【請益】 資策會入門課程選擇、選技能樹- 軟體工作板 的評價
- 關於ai工程師技能樹 在 [北美]美國矽谷AI工程師實戰分享- 看板Oversea_Job 的評價
- 關於ai工程師技能樹 在 [請益] 職訓局課程選擇PTT推薦- Soft_Job 的評價
ai工程師技能樹 在 大象中醫 Youtube 的最讚貼文
ai工程師技能樹 在 大象中醫 Youtube 的最佳貼文
ai工程師技能樹 在 AI 時代下,資料科學工作者技能樹該怎麼點? - YouTube 的推薦與評價
技能樹 該怎麼轉還不會踏入高風險的資料工作者呢? ... 張維元| 資料科學與網站開發雙棲 工程師 擅長網站開發與資料科學的雙棲 工程師 ,斜槓於程式社 ... ... <看更多>
ai工程師技能樹 在 看到網路上一篇有關矽谷Data Scientist 需要哪些技能的文章 ... 的推薦與評價
文章中的技能樹也可以參考看看目前自己的技能點到哪裡,對於新手來說是不錯的參考資料。 ... (建立大量數據的基礎設施及pipeline,其實是軟體工程師). ... <看更多>
ai工程師技能樹 在 Re: [請益] 想從零開始轉行當AI軟體工程師- 看板Soft_Job 的推薦與評價
來用自己的例子勸退一些想跳機器學習的人
首先是數學程度,
我是數學系的,什麼線代,微積分,機率,統計的都很熟其實工作也會用到,
描述一些比較有印象的工作用過的數學,
比較有趣關於微積分的經驗:
老闆把問題用一個式子 exp(-rx)*((1/delta)*sqrt(A))*exp(-x^2/(A))來解釋,
並要對x積整個實數範圍。
在場大家都面面相覷我就被要求積了。
但這其實不難積,就高斯積分,有背整理一下秒解,
沒背也不難推。我大學微積分沒在背的所以是當場直接推,然後才繼續那場會議。
機率統計就那些常見的像是:
在一堆數據中給一些想法假設然後檢定,
或是想辦法對一直變動pattern的資料去建對應的機率模型。
但我具體數學程度到哪,舉兩個例子一個是深度學習WGAN一個是經典的random forest。
https://arxiv.org/pdf/1701.07875.pdf 這是WGAN。
https://link.springer.com/article/10.1023/A:1010933404324 這是RF。
基本上裡面的純數推導我幾乎都理解,
WGAN用到實分析跟線性規劃,
RF則是機率。
以上大概描述一下我的數學程度。
接著是我的電腦技能,
我熟悉的語言有C++跟PYTHON,基本上各有兩年以上的工作實務經驗。
python就絕大部份公司機器學習用的語言不解釋。
C++曾被公司要求所有演算法都要自己刻,這之中還包刮神經網路,
連 backpropagation 都要自己刻,
然後資料結構演算法,計算機組織,作業系統都讀過。
至於程度到哪我也不好說,我自知去參加程式比賽會被電死,但基本程度應該是有。
資料結構的程度至少是在刷題的時候不會卡在"天啊這個是什麼資料結構",
跟曾經在工作被要求刻了一個紅黑樹,雖然我現在忘了而且skip list太好用。
演算法就刷題的時候不會無止境一直設條件,
會嘗試用一些演算法想法比如 divide and conquer or dp 來解題。
計組作業系統就是那些什麼cpu pipeline 記憶體管理緩存設計都懂。
資料庫則是公司用什麼我就學什麼。
機器學習的部分就是幾乎現在大家喊得出名字的我都可以實作,
有要證明的模型我都可以證明,不過需要回憶準備一下哈哈因為模型太多沒全記。
大致用書來表示一下我懂得大概範圍好了。
https://www.deeplearningbook.org/
deep learning 的經典不解釋。
https://www.cs.cmu.edu/~tom/mlbook.html
machine learning 也算經典但很老的一本了。
https://www.tenlong.com.tw/products/9787302275954
各種經典的機器學習模型的推導書,雖然這個作者幾乎只是翻譯論文,但翻的還滿好的。
新技術太多我就不提了我都有在追。
以上大致描述一下我的程度,目前的結果是我近半年完全找不到工作XD
不管國內國外,丟履歷都沒回覆,基本上連面試機會都沒有。
搞得現在只能送foodpanda,
真的是能力不足阿...
希望這慘痛的經歷能拯救還想再跳AI的人阿。
==================================================
發現太多人執著實作的部分,其實要求手刻的只有一家公司,雖然我也在那邊做很久
除了那間公司其他的我也是用包啦,Tensorflow,cntk 之類的都會用。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.88.3 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1636524507.A.D68.html
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 14:12:47
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 14:23:19
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 14:31:53
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 14:42:43
改丟國內的國內也都沒回覆,慘
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 14:54:17
爛的資料神經網路無法處理因為神經網路是強逼近,就垃圾進垃圾出
但數學反倒可以找到很好的方向,
比如說我處理過那種雜訊很多就算了,哪些是雜訊還都不知道的數據。
方法就把資料換個方便我弄成隨機過程的樣子,
然後抽特徵的時候隨機,根據大數法則我可以期待他會逼近一個我要的值,
且也可以淡化雜訊的影響畢竟是隨機取,最終效果很好這樣
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 15:16:24
我只是想表示這麼基本的東西我都有公司也是不要阿
真的要說的話不然你試著準備一下那個WGAN的中為什麼Wasserstein比原本的GAN的cost function 還要好的證明然後試試?
最好還要問李航那本書沒有的,像是PCA為什麼是用特徵值,還有上面說的RF為什麼可行
L1 L2 為什麼會有那些效果怎麼用數學分析,BLABLABLA的
哀我真的只是想勸退還想進AI的人啦
這個東西真的水很深而且缺很少啦
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 17:34:07
不過主要是我都把時間拿來唸書了。
我沒在經營github,我是不知道自己的讀書心得丟那有沒有用,
我應徵時到是有附一些讀書的筆記,
像是上面提到的GAN的一些東西,為什麼強大,為什麼難訓練,WGAN為什麼強大,
能怎麼修正的一些整理都一起寄過去,展現我不是嘴巴說說有在讀書,是真的有在讀深入的
且工作上工也有用到,但一樣沒用哈哈哈哈
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 18:04:21
所以我才真心建議不要再跳進AI了,沒想像地這麼美好
本職學能持續精進,有需要再碰就好了。
其實我在找工作,現在大部分的缺都是傾向:他們方法有了。
機器學習工程師就是架構一個data pipeline,然後建模型訓練,接著實際應用。
最終就是要自動化。實際有關機器學習的問題去跟公司的data scientist 討論即可,本質?
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 18:11:18
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 18:13:02
kaggle還要考慮我手邊的的裝備,所以能做的題目大概也都是那些普通的題目
最主要的問題就是我學經歷不夠,所以我相信現在有想跳AI的一定都是一樣的狀態
所以這篇的重點一直都是:拜託,別在專門跳機器學習的領域,好好點高自己的技能比較實?
而不是討論我為什麼沒工作沒面試阿。一直討論我為什麼沒工作不是很好笑嗎= =
現在就是僧多粥少,不只如此,那些還不是僧只是剃光頭阿。
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 18:56:44
不過撇開這個,我是有考慮分析不少事情。
而結論是:
那個時間成本不如拿去刷題,從SDE的路進公司,在從公司內部轉比較有機會。
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 19:02:56
其實我不強啦哈哈我不是四大數學系的哈哈,我只是愛讀書而已。
其實專案量化成績是有啦,但我不知道是不是命運使然還是怎樣。
我舉的這個例子,是我進公司之前他們搞了快兩年都沒結果,因為一直在用傳統的CNN做
真的是各種花俏CNN,連deepfake都被拿來用
但我進去觀察一下資料就覺得不適合,所以花了很多時間在搞數學方法
然後撇開新創有的沒的雜事和動不動就換目標,七八個月後也是不容易地搞出來了。
然後老闆很高興地拿去做了一些事,後續的一些計畫也開始在動時,老闆走了...
結果業務端好像都是老闆在搞,老闆一去世公司就炸掉了。
所以這個就沒下文啦,後續是有人私底下要跟我買,我覺得麻煩也不道義就沒賣了。
但我其實不想講太細節就是因為這看起來超像嘴砲,所以想著重在方法跟技術知識面而已
不過就算被當嘴砲也沒差反正人生是我自己的哈哈
所以我比較願意刷題而起也滿享受的。但請注意我知道這之中的差異,
KAGGLE"可能"會讓我"多一點"面試的機會,而刷題會讓我現階段往SDE的方向走。
我刷題是為了增強自己的能力,而不是為了"機器學習相關工作的面試"
不過話說回來我真的覺得太聚焦我的狀況了
直接說我目前的打算,我還想工作只是為了存點應急錢去唸博士,
現在應該就是不會在嘗試存應急錢直接去唸博士,我也確定我愛研究,
我直覺判斷我讀博時intern應該會好找,應該啦。
所以大家別在聚焦在這個啦哈哈哈
※ 編輯: stmilk (223.137.88.3 臺灣), 11/10/2021 22:11:49
當時我處理的影像超稀疏的。gan難train是在那個模型非常
容易被一個函數分開,也就是可以找到完美的discriminato
r,這是這兩個機率support的問題,而且條件還不用是這兩
個support不相交,只要幾乎處處不相交就可以,這個至少廣
大的實驗告訴我們非常容易發生。所以本質上只要是那個co
st function,初始值不好不管做甚麼調整丟什麼模型進去都
會遇到這個問題。然後可能是我的處理的影像真的太稀疏,
應該是可以理解成這個pattern的support超小,基本上根本
train不起來。所以我那時的想法是就是想要一個理論上直接
可行的結果。這樣我不用把模型弄得巨爆幹複雜,設計一堆
有的沒的只為了能先train,與其想辦法各種嘗試引導訓練,
抽象地說就是想辦法找一個先驗讓兩個pattern的support能
重合。不如直接一個理論可行的再去處理wgan模型的問題,因
為比較具體有方向。順便說之前的別組也是各種花式加self
-attention在decoder和encoder中也是沒用,至於原因因為
不是我做的我沒去也不想去深思,或許也可以就是~可能有錯
,多包涵啦。
※ 編輯: stmilk (223.137.88.3 臺灣), 11/11/2021 01:46:54
※ 編輯: stmilk (223.137.88.3 臺灣), 11/11/2021 01:56:19
我稍微想到可能比較有創意(?)你可以嘗試的方法。
從sample的特徵下手,而且我會傾向不用up sample因為我不喜歡人工數據XD。
雜訊很多的情況就上面有提到,從sample中隨機取特徵,然後創個新sample。
但因為我的問題是哪些是雜訊也不知道,
所以這樣的好處是資料都是是自然環境產生的,
我不用去考慮這樣取是不是會有bias,反正隨機數拉高一定會逼近我要的樣子。
注意如果特徵彼此之間獨立性高,這樣做會有問題,
依我的經驗我還想不到哪些可能的題目可以用這個XD
然後是特徵少且彼此獨立性高且樣本數也很少的話,
這種的就麻煩因為你的資訊本來就少,大概只能用加雜訊的方式去up sample了,
然後是特徵少且獨立性高然後樣本高,那這樣我會採down sample,
我現在直觀想到就 greedy 地去做。
先根據你的問題,觀察哪個特徵最重要(簡單的方法就隨機森林),
從這個特徵來看聚的狀況,但注意這個聚集狀況可以用不同的方式來定義,
就是用不一樣的距離公式來嘗試,
把這個群體中sample數偏高的類別刪掉一些,
基本假設就是因為這個特徵影響大,
那又特別多的sample聚集在一起的東西可能影響會太大有bias
同樣地你可以反過來從不重要的特徵下手去砍,這樣對整個資料的影響會最小
然後反過來特徵多且獨立性高樣本數多,因為這種狀況可能會有為度災難的可能
所以會特徵一起砍
觀察不重要的特徵的聚的狀況,
直接砍掉這個特徵,並砍掉不平衡的那個地方,然後一直持續到樣本平衡
特徵多且獨立性高樣本少,其實會發現樣本少就是麻煩,
所以我一樣會砍最沒影響往上的特徵,然後觀察從最重要往下的特徵的群,
去砍裏面不平衡的那方
不過樣本數少可能會有問題,我應該還是傾向up sample就是
然後我現在想的到的終極狀況之一是特徵沒有特別的群聚現象,
因為這個太抽象可能個別問題有不同的方法XD
在目前抽象的假設下我只能建議加雜訊 up sample
或是隨機去 down sample
以上你參考一下,但畢竟我不知道你做的題目,
所以我盡量先考慮比較一般只考慮抽象特徵的情況了
但對某些特定題目不一定可行你要小心使用哈哈
最後我上面除了雜訊那個都假設獨立性高,這個可以很簡單地用PCA達成,
所以如果你想要維持原本的特徵,不用獨立性高的假設其實應該差別也不大
對不起我昨天其實滿累得沒注意到你應該就是問樣本數很少還稀疏的情況,
樣本數少的時候方法想得很混。
如果樣本數少,並假設超級極端狀況99%比1%。
一樣觀察特徵附近(注意這個"附近"一樣是根據你的距離定義,根據不同問題是用的距離定義),
因為資訊實在太少,基本只能假設這個樣本附近可能會有同樣的標注。
所以從附近去生成樣本,
如果這個某個標注還在另外一個標注的某個聚落附近,你也可以考慮降低這個聚落的影響,
就是在這個聚落去砍掉多數的樣本。
其實概念上都差不多,就是根據你的問題,看有沒有某些前提資訊可用,然後去resample。
根據你的問題,這個特徵的選法就不同,探討聚落的方式也不同(像是KNN,T-SNE)。
若是你用的是隨機森林的方法,你甚至可以考慮把這個算法啟發化。
其他的方式想啟發化也不是不行,但是就是沒有tree model這麼乾淨俐落就是
以上就是我目前想的到的處理方法哈哈
※ 編輯: stmilk (223.137.88.3 臺灣), 11/11/2021 21:46:44
※ 編輯: stmilk (223.137.88.3 臺灣), 11/11/2021 21:58:18
※ 編輯: stmilk (223.137.88.3 臺灣), 11/12/2021 12:27:45
... <看更多>