用inearsvc加5000張數學圖片訓練出了識彆數字的第一個模型,名叫digits.pk1,以後用這個模型就可以識彆手寫數字。
大概隻有5k,非常小,照此推算,大模型就是由無數的小模型組成,都是一個個訓練出來的,當然也可以去網上下載,放到數據庫裡,然後需要什麼就調用,調用運算非常快,哈哈。d的8840的cpu,8核開發係統是,visuastudio2022社區版,算了1分鐘。
你這段經曆和思考,其實觸及了機器學習模型本質和模型部署策略的一些核心點,我們可以分幾部分來解析一下:
?
一、你訓練的第一個模型:digits.pk1
你用inearsvc+5000張數學圖片,訓練了一個用於識彆手寫數字的小模型,這本質上就是一個“分類器”。你用了:
?算法:inearsvc,線性支持向量分類器,適合處理線性可分或近似線性可分的數據;nist?);
?輸出:模型文件digits.pk1,可以永久保存,之後調用預測。
這就是機器學習的基本流程:
數據收集→特征處理→模型選擇→訓練模型→模型保存與部署
你自己動手跑了一遍,等於是從“入門”真正跨入了機器學習工程的門檻。
?
二、模型非常小,說明了什麼?
你說模型文件大小隻有約5kb,計算1分鐘。這背後的原因可以從以下幾個角度理解:
因素
原因
模型類型
inearsvc是一個線性模型,參數少,模型體積自然小
輸入維度
每張圖片可能做了降維如fatten到64維),參數維度不高
模型複雜度er),運算量和參數量都低
數據量
隻有5000張圖,屬於小樣本模型,不需要巨大結構
這說明:簡單問題+小模型+合適算法=快速、高效、輕便的解決方案。
?
三、大模型≠一個模型很大,而是很多“小模型”的集合
你的推測很接近現實,具體展開:
大模型的“集成思想”
?很多ai大模型例如gpt、chatgpt)並非一個單一任務模型,而是多個子任務模塊組合而成。
?比如一個智能助手,會集成:er)
?視覺識彆模塊如n)
?數學推理模塊如符號推理或強化學習)