Blogs
隨機的想法
過年沒有過年的感覺 總覺得 … 今年過年好像沒有過年的感覺?總覺得有點無聊還是沒辦什麼活動?雖然附近的彩券行人還是很多,車都停到我家門口。 親戚好像也沒有特別在意,也有可能是年底一堆小朋友出生,重心往下一代前進了吧?(話說幾乎都是小妹妹 FOMO 發現自己就算沒在用 social media,還是會有 FOMO。沒事的時候就在重新整理 RSS,看有沒有新東西。 慢慢來 發現自己動作很慢,寫一篇貼文居然有辦法拖好幾天,不知道是不是拖延症又來搗亂了?
February 19, 2026
嘗試寫一個擴充程式
最近幾天在嘗試 vibe coding,只是我為什麼突然要寫程式? 看到歐趴做了 X 的 AI 第二意見工具,想想覺得好像也需要一套 for YouTube 的第二意見工具,因此讓我產生 vibe coding 出擴充程式的念頭。 一開始我用 Proton Lumo 試著做出 MVP,結果連骨架都生不出來,ChatGPT 就更不用說了1,後來 Leaf 寫信告訴我用 Gemini 生出骨架,Claude + Copilot 做後續處理,可以另外搭配 Re-Ex 減少 AI 幻覺。 在一開始,我其實很想用 privacy-focused 的 AI 模型,但是用起來都跟💩一樣,直到 Leaf 寫信,我才心不甘情不願地回去用 big tech 的服務。 最一開始,我告訴 Gemini 我想做一套可以判斷 YouTube 頻道品質的擴充套件,並且我想要可以直接複製貼上的版本,Gemini 就直接給我概念和骨架了: 抓取影片 ID → 丟給 YouTube data API → 拿到標題 → 分析標題是否符合扣分規定 → 計算分數 Gemini 第一次讓我測試不用 API 的版本,抓到 ID 之後會隨機打分數。但是連 ID 都抓不到,問了大概兩三次,逐步 debug 才解決。
February 17, 2026
繼 vibe coding
昨天寫完對於 vibe coding 的疑問之後,隔天看到了 Leaf 的回饋、花了點時間研究了一下關於 vibe coding 的相關內容。 我發現了一件事:我不討厭 vibe coding 這件事,而是我不想要為了使用 AI,而把我的錢跟隱私送給 big tech。 AI 確實幫助效率提升。但是為了效率,把所有東西都給 OpenAI 跟 Google,是件很奇怪的事,換句話說是要讓 big tech 繼續綁架我們才能活著? 看到 James 在這部影片 講要開始用 AI,我覺得用 AI 這點沒什麼不對,但是要「付費」使用 AI? 在自己的主機 host 不就好了? 這時候又衍生出其他問題了:在自己的電腦跑不行嗎? 當然在自己電腦上跑是最好的方法,但是有以下兩個問題: 如果自己的電腦跑不動怎麼辦? 如果需要在外面用電腦怎麼辦? 我的電腦當初是我爸媽買的,所以我根本沒有選擇權,於是就收到了一台只有 8 GB RAM、i5-8250U CPU,不能加裝 RAM、只有內顯的 HP 筆電,買的當下也還沒 AI 發展的概念,最初只是為了讓我可以寫程式用。 如果你想說再買一台電腦,像 Wiwi 那樣 不就好了,那請你想辦法幫我說服我爸媽幫我再買一台,我會超感謝你的。 即使自己的電腦可以用,那如果是在學校之類的地方呢?總不能隨便在學校用自己的電腦吧? 上課的時候如果老師要求用 AI 完成作業,偏偏又是涉及個人隱私的內容?自己的裝置或許還好,如果是公用電腦呢?公用電腦沒辦法隨便安裝軟體,不太可能可以接 Tailscale 吧? 非同溫層的看法 「幹嘛躲來躲去的?你是做壞事怕被發現喔?」
February 15, 2026
Vibe coding?
這是一個發自內心的疑問。 網路上一堆人都說現在只要對 AI 下指令就可以寫程式了,不過對我來說好像不是這樣。 每次 AI 都會生成一堆有錯的程式碼,有時候錯誤還會越改越多。就算錯誤已經改完,程式大概也沒辦法執行了,剩下一個圖形介面空殼。 但每次看別人的 vibe coding 紀錄,只要一句話就可以有功能沒有很齊全,但已經堪用的結果;反觀我的 vibe coding,同一句話生成的結果完全是 **(自行填入) 印象中有次為了讓 AI 搞清楚我到底想幹嘛,在網路上找了 MVP 規格書範本修改,結果出來的結果跟一句話生成的東西一模一樣。看完結果,開始懷疑我是不是在浪費時間 == 是只有我這樣嗎?還是我看到的 vibe coding 是幻象?
February 14, 2026
被 Math Rock 圈粉了
Warning 之前因為上課跟趕報告,一直沒有時間好好看 BlogBlog 同樂會一月回顧,直到最近才有時間。 前天看了 Alex 推坑的數學搖滾。原本是帶著好奇的心態聽看看,結果卻是一股熟悉感。 「明明是沒有聽過的曲風,為什麼會覺得很熟悉?」這個問題一直在我腦中迴盪,就這樣想了一整天。 隔天早上,我又重聽了一次同一首歌,重新感受一次那個熟悉感。 直到快要日落時: 「等一下,這不就是以前在我腦中出現,但被我當成噪音的聲音嗎?」就是那個錯拍和不對稱的音,卻又能接在一起的感覺,看似不合理又很順暢。 但是因為長時間被我忽視,這個聲音已經在我腦中消失了,只剩下白噪音跟可能會觸發 PTSD 的 bytebeat1。 不知不覺(重新)喜歡上 Math Rock 了,希望這個聲音還能在未來的某個無聲的夜晚找回。 https://youtu.be/idhmdcumM_w 2 ↩︎ 雖然我放了連結,但是請不要點開它,我不想看到觀看數增加 ↩︎
February 12, 2026
打節奏
Note 這是我的「BlogBlog 同樂會 - 2026 年 2 月」的投稿文章。本月主題是「只有我這樣嗎?」,由 Wiwi 主持。如果你有自己的部落格,歡迎一起來參加! 印象中是某次下巴撞到東西的時候(沒事我沒受傷),發現牙齒可以打出節奏。 如果力道控制得好的話,聲音只會用內耳傳到大腦,動作其實也不太明顯,頂多看起來像在咀嚼東西(吧?);但如果太大力的話,旁邊的人會聽到牙齒撞擊的高頻,自己的耳朵會受不了,而且牙齒應該也會很痛吧? 如果自己在圖書館或捷運上想到一段節奏,想要知道聽起來順不順,或是對某些音樂的節奏特別有印象,用牙齒可以簡單打出節奏。(用嘴巴咀嚼節奏? 我的習慣:大鼓用下排門牙的前面敲上排門牙的後面。小鼓用下排門牙的最上方,從上排門牙後面的中間刷下來,如果有困難可以改用大臼齒發出聲音(只是有些人可能會覺得不舒服就是了)。 當然不一定要這樣做,其他部位也可以做出類似效果,只要自己覺得像就好。 (這篇只是隨便寫寫)
February 12, 2026
把 GPT 加密?
又一個突然想到的奇怪想法:我能不能在別人的電腦跑 GPT 並且用密文處理,再傳到客戶端解密? 有時候會遇到需要 GPT 處理涉及個人的東西,可是自己的電腦性能不夠跑。所以在想能不能遠端在別人性能好的電腦跑 GPT,又能同時保護隱私。 我想到的軟體運作流程: 把對話內容、檔案在客戶端輸入並加密 → 密文傳送到伺服器(例如 Google Colab)→ 語言模型直接處理密文 → 回答回傳到客戶端 → 客戶端解密 不過最大的問題就是模型要怎麼處理密文?問了 Proton Lumo AI,得到的答案是:同態加密 Homomorphic Encryption。 同態加密的類型: PHE SHE(Somewhat Homomorphic Encryption) FHE 前兩種都是部份加密,第一種加密會不夠用,第二種加密會有噪音累積問題,累積太多會沒辦法解密,兩種都可能不適合 AI 對話用。
February 11, 2026
換了字型的後後續
三、四天前 亖亖 寫了一封信給我,信中說他也是把部落格部署在 GitHub 上,可以正常使用 emfont 字型,希望我再試試,但後來還是失敗了。 在失敗之後我是這樣回答亖亖的: 有些人在網路環境很差的情況下,如果要看我的部落格還要花時間載入字體,好像會很不方便(我有時候也需要待在一些網路不好的地方,例如學校),所以我想說乾脆就別再放字型了,能快速載入可能比較重要。 原本想說就這樣算了,結果今天看到 JN 的部落格多了一頁 這個 ,就決定要找她1把字型問題處理好了。 一開始在 local 測試完全沒問題,一上 GitHub 字型就完全不見,跟我在 前一篇 寫的一樣。後來在 GitHub 上的版本之後用開發人員模式檢查到有 error(只是當初我們都很好奇為什麼在 local 檢查不到問題) 後來回去找了在 GitHub 生成的 css,因為我用的 Hextra 主題 預設設定,import 被放在 css 檔案的後面,導致字型無法讀取 所以接下來我們要做什麼呢?就是覆寫主題設定啦!(準備看程式碼到發瘋(? 接下來我們從 11 點多,花了一個小時撞牆測試哪個部份有問題,一下看 GitHub 環境,一下看編譯器運作邏輯,還是看不出問題。 想說今天只有早上後面的一點零星時間可以用,今天應該是沒辦法解決了,結果 JN 就給我答案了: 因為你的 CI 有設 hugo 的環境變數,指定成 production2 然後 theme 裡面有寫到,如果是 production 的話,(theme 的 layout/_partials/head.html)跑的是 37~39 這幾行會把 3 個 CSS 的檔案壓成一個 minify 的 CSS,然後插到 html 的 header
February 10, 2026
當你變成 AI 的訓練資料
原本想說關於 AI 訓練資料的事會放到未來再說,但看到則倫今天的貼文,發現不能再拖了。 AI 發展不是壞事,但如果為了訓練 AI,使用非授權內容,會變成很可怕的事。 這樣寫好像沒什麼感覺。但,要是自己的聲音、模樣變成訓練資料之一呢? 假設今天有人以匿名身份生成了有人講述非法內容的影片並上傳到網路上,而影片中的人物剛好就是你的樣子跟聲音,不覺得聽起來恐怖很多嗎? 而我覺得這件事情更可怕的是,當有人開了第一槍、越過這條禁忌的界線之後,恐怕後面只會有越來越多人跟上,同樣是因為擴展定律。 給一些沒什麼概念的人;AI 能有訓練資料,不是因為 AI 自己會上網抓資料,而是公司會拿網路上的資料微調模型。簡單來說,資料是靠人工抓取的。至於公司有沒有良心尊重授權跟隱私呢 … 你知道的。 那要怎麼做?或許我們沒有辦法阻止大公司隨便抓取資料,不過我們還是可以保護自己。 反正都不管授權的問題了,那 bilibili 爬完之後要爬什麼,Instagram 嗎?還是 Facebook? 而這些平台的內容是誰提供的?都是我們呀!那些你放在社群媒體或影音平台上的照片、文字、圖片,跟影片,全部都有可能在未經你同意的情況下被作為大型 AI 模型的訓練資料,而這些內容可能包含你的小孩的照片、你跟家人出遊的影片,還有你辛苦寫下的文章或創作的影片 —— 而我們卻永遠不會發現 可以減少最大傷害的一步 ── 不要用社群媒體。 當然我知道對某部份人來說要做到很難啦,但至少也要能減少在社群媒體留下足跡,跟把之前留下的貼文移動到其他安全的地方(例如有防止機器人爬文的部落格?) 其實最大的重點是希望大家可以重視科技巨頭造成的問題 (最近在考慮要不要從 GitHub 搬家到 Codeberg)
February 9, 2026