- 等级
- 制图工程师
- 等级进度
-
- 积分
- 2205
- 阅读权限
- 60
- 主题
- 精华
- 社区币
- 星梦
- 注册时间
- 2022-2-5
- 最后登录
- 1970-1-1
|
本帖最后由 gomicxja 于 2026-3-11 16:16 编辑 ( A& r% A: ^7 j- ]4 _
: b" p1 y8 Z4 e# ?之前有新聞就是說連平時問code問題的網站都開始沒人問問題,個個依賴AI,訪問率幾乎跌到零,現在AI是靠食以前的人問的問題和答案來訓練,但當現在個個人都依賴AI的時候,沒真人在網上認真回答或者認真思考問題,個個都因為貪快而用AI即刻給答案,成個情況就會變得好搞笑,長遠下去,就會是首先人會直接跳過思考,因為直接出答案諗都唔諗直接用,就會失去創新,甚至出現bug都不會去debug,因為長期靠AI,有bug就掉去畀AI處理,但AI又不一定完全對,所以失去了手動debug的能力,成個結果就是因為要即時見效而用類固醇,但長時間用之後就有副作用出現類固醇反彈之類的問題,另外就是因為之後個個依賴AI,以為AI答案一定對而放上網,那些資料可能因為AI幻覺而部份出錯,之後的新AI又取得那堆有幻覺的資料繼續學習,結果即係新AI學了舊AI的資料,感覺就像人類近親繁殖一般,遺傳病會因為這樣而愈來愈顯現,而AI都會出現這樣情況,這種AI學AI的狀態會隨著次數增加而導致資料的錯誤率愈放愈大,最後可能就會到失控的地步,現在暫時可能不明顯,但時間拉長之後只會愈來愈嚴重,當失控到咁上吓程度,大到連人都覺得修復不到時,因為始終現在的LLM是一個黑盒來,這種絕望感就會大到傾向於不如索性放棄的態度發展 |
|