Blogs
不知不覺用了 Linux 超過一年
Warning 這原本應該是我在 BlogBlog 同樂會的一月投稿(回顧連結),但我拖到現在才寫完。 時間過得好快,沒想到我已經用 Linux 一年多了!我大概在高一開學前的時候換成 Linux,沒想到一用就回不去了。 除了在學校,有時候不得不用 Windows 的時候會用一下,其他時候都是 Linux 幫我解決一切問題。 稍微回顧一下心路歷程: 為什麼我當初要用 Linux? 當初用 Linux 有幾個原因: Windows 越用越慢 Windows 把我的 SSD 搞到炸掉 Windows 一堆東西不能用(一堆沒用過 Linux 的人都說 Linux 什麼都不能用,什麼都不能用的是 Windows 好嗎!1) Wiwi 的 這部影片 壓倒我的最後一根稻草就是 Wiwi 在影片裡面提到 Linux 的 JACK 音效可以同時串接多個音效裝置,我當時很想在 Windows 實現這個功能,但 Windows 本身的音效驅動效率很差,而且延遲很大,還有 Windows 造成的其他原因把我搞得很不爽,就決定直接跳槽了。
February 6, 2026
對於 AI 的一點想法
AI 能取代人類嗎? 我的想法是,就算 AI 的能力比人類強,人類還是有存在的意義的。 就以唱歌來說好了,AI 生成的聲音確實比人類好很多,各種唱歌技巧都幾乎超越所有人類,但是人類就因此不唱歌了嗎? 工作方面? 如果工作是以效率為主,交給 AI 當然沒問題。但如果工作是因為自己能投入其中,即使 AI 可以取代,或是效率比人類高,人類做也沒關係。 但說到這,工作到底是為了自己還是為了賺錢,那又是另一個要討論的部份了。 AI 只是工具 AI 的本質就只是軟體而已,只是概念跟執行方式跟一般大眾認為的軟體不一樣。對人類來說,就是互動方式像人類的軟體,可以運用的範疇也比其他軟體多而已。 所以某些人可以不要再說 AI 會取代人類了好嗎? 最近一直聽到 AI 歌手大頭針的翻唱,現在 AI 的能力已經超越人類。不過雖然聽感很爽,但連續的強混讓我感覺有點快窒息了。話說大頭針應該是用 RVC1 做的 一種 AI 語音轉換的軟體,屬於 VITS 架構,Wiwi 在以前的專題直播有講到(剛好在我考會考的第一天晚上,沒記錯應該是 2024 年 5 月 18 號)。另外我有用過同樣基於 VITS 的 GPT-SoVITS 做過語音模型。 ↩︎
February 5, 2026
就說了不要更新
就跟標題寫的一樣,我又手殘按更新了。 我在 Surface Pro 5 的電腦上版本更新,原本想說會隨機出現的 kernel panic1 能不能在更新被解決,結果還不知道有沒有成功,就先出現其他 bug 了。 原本我都用 Fcitx5 中文輸入法在 ghostwriter 上寫部落格, 結果一更新完,ghostwriter 直接不能用中文輸入法?我現在只能用終端機寫 == 再次鄭重提醒:不要隨便亂更新 更新:更新後 kernel panic 還是沒解決 我後來設定發生後 20 秒會自動重開。通常都會在關機的時候發生,而且從按關機到 Linux 觸發 panic 要很久,又是不定時發生,快受不了了 x_x ↩︎
February 4, 2026
我不知道你是誰
今天收到一封信,信的主旨寫 “Adblock”,然後在跟我推薦哪個 Adblock 他覺得很好用。 其實對方的回饋很實用啦,不過有個問題:我不知道你來幹嘛。 我看了對方的 email 網域,好像是在外島某個學校管理的 Google 帳號。我猜應該是看到我在 BlogBlog 同樂會的二月投稿,所以寫信過來給我的吧? 我是很歡迎新朋友寫信過來啦,不過麻煩可以在信件主旨讓我知道你是我的部落格讀者嗎?如果不知道寫什麼的話,就寫個「讀者來信」吧!
February 2, 2026
拖延幫我做到我想做的事
(這是什麼莫名奇妙的標題?) 最近幾天感覺有點拖延症發作,自主學習的報告還沒做,直接去做其他事情。 在我逃避做報告的這段時間,我做了件覺得有點誇張的事:我把我喜歡的歌做成 Osu!taiko 的譜圖了。 我選了莊蕎嫣的《水光》(開心開心 我花了大概 3 ~ 4 個小時做譜圖,雖然做得很爛,後面鼓點還直接跑掉 XDD 歡迎來試玩!不滿意歡迎來幫忙修改,改完記得傳給我喔! osz 檔案 olz 檔案 我直接把檔案放在這個部落格的 repo 裡面,還有檔案裡面的影片和音樂用 yt-dlp 取得1,好孩子不要學喔 我把檔案移到 Google Drive 了 相關內容 https://wiwi.video/w/7kAkSzwBcoXYvqkiyAJPAN 希望蕎嫣不會生氣 ↩︎
February 1, 2026
幻聽?
從我很小的時候開始,我只要在很安靜的地方,耳朵都會聽到一些奇怪的聲音。聽起來很像幾個固定頻率合在一起的嗡嗡聲,但是聲音沒有任何變化。 我用 Audacity 生成了一下聲音,大概是左耳 755 Hz,右耳 780 Hz,聽起來像這樣: 生成的聲音(我懶得再寫 shortcode 內嵌播放器了 :P) (請戴上耳機並調小音量,否則兩個頻率疊在一起會聽起來像電話撥號) 對我來說其實已經習慣了,只是半夜要睡覺的時候可能會很受不了。 我很好奇是只有我會這樣嗎?
January 31, 2026
耗損
Note 這篇可能有點偏向意識流,看不懂是正常現象 下午在外面的小巷子散步,享受沒有車經過,悠閒的感覺。 原本打算當作寫今天部落格的題材,但回家後發現不知道到底要怎麼形容。(我承認我文筆不好,但這應該不是我的問題) 數位轉成類比會有耗損,那記憶轉成文字是不是也有耗損? 如果把整個過程具體化表示,大概像是這樣: 眼睛接收到光線 → 進入大腦 → 在大腦處理成影像 → 大腦思考影像中的東西 → 形成有關影像的想法 → 將想法重新轉換成適合表達的方式 → 想法轉換成適合描述用的文字 每一個步驟都會有耗損,但在想法重新轉換的時候耗損最多,轉換成描述用文字屬於耗損第二多的步驟。 將腦中的想法變成文字,叫做譬喻,譬喻本來就是將文字「模仿」成記憶的樣子。再怎樣精闢的文字,也只能做到盡量相似的程度而已。 雖然譬喻會盡量將想像的樣子描繪出來,減少從想法變成文字的耗損,但在更前面就已經有更大的耗損了。 想到 Noa 之前回覆我的信: 我其實寫了《IG 很無聊》的回覆,但是太莫名所以刪掉了。但我還是想放。不要太認真看。 身為一個曾經的 ig 重度使用者,看到你說的第一個原因「太習慣」,覺得太輕薄但又真實地銳利,就像只用「太愛了」來描述失戀的傷心一樣。這只能是局外人之言。實際上,太習慣是,無聊地瀏覽著的大把時間、手指對 app 位置的肌肉記憶,和關上 ig 時數秒的空虛,都堆疊地厚重。
January 30, 2026