最近在學AI副業 同時在準備考試(在狂讀歷史地理)
有點心得感想
人類史從採集進入農業社會、工業革命、工業革命2.0
都迎來了巨大的權力結構轉變
AI學校用有點危言聳聽的方式宣傳
「不會用AI就等著被淘汰」
是事實 但也不全然
AI可以幫忙做很多事情 是工具的進化
但在思考方面 目前還是人類的特權
可是過度依賴生成AI 原本的一些能力真的會鈍化
最近用AI產出一些文章後
反而更想重新開始寫文章
因為在過程中感覺到自己的一些思路和推理的鈍化
不好好輸出的話,連好好組織自己想說的話的能力都變差了
然後AI給的答案真的要好好確認
我之前因為想算怎麼買定期票最划算
想說把條件和金額都丟給AI 看他會怎麼算
然後聊天模型們給了我一堆算式過程+錯的答案
但他們講得超有道理
如果不是我自己會算 我差點就要相信他的答案了
後來我換請他們推薦更適合計算定期票的模型
這次他們就教我如何精確給其他模型指令的方法
甚至教我怎麼給指令讓他產出Python程式碼
照著做 果然能確實算出最佳方案
但說實話這問題不難 我並不想動手寫程式解決
對我這顆人腦的最快解答方法是 攤開行事曆
畫幾筆 框幾個框 在表格加一加價格 就可以算出答案的
但必須說 對於要重複尋找不同條件下的最佳解的話
我就會覺得用AI道具很划算
但透過這個過程
我的體會是—人類必須擁有「確認」的能力
最近時常看到有人拿著ChatGPT的答案跑去跟專家爭對錯
他們跳針的話常常是「但是ChatGPT這樣說啊!」
隱藏的意思是「比起專家 他們更相信ChatGPT」
這是非常危險的現象⋯⋯
我們身在一個充滿假訊息的世界
許多人把電影、影集、論壇、某人出的書、生成式AI的內容當成「答案、事實、可以相信的事」
但這些其實全部都是「人造的」都有偽造、作假的可能
即使不是造假,也還會有區域性習慣、規定不同的部分
就像之前有個動畫有教垃圾分類的詳細方式,但日本其實各地的分類方式都不一樣,連他們在地人常常都搞混,去一個新的地方都要重新確認。
卻有人拿著那個動畫內容跑去跟某個發文分享「自己家附近的分類方式是這樣的唷」的人,說他寫的分類是錯的、說對方造謠傳假訊息。
真的很傻眼![]()
最後還是回到提醒自己
「凡事要確認」
「確認就是生命」
祝大家能在各種假訊息充斥的戰場中活下來
一起守護自己的生命
>>接下來應該會不定期寫寫文章練習持續產出
>>也會把一些AI生的文章另外專門開一個區塊