在人工智能技術的飛速發展浪潮中,各大科技公司正不遺余力地探索如何讓強大的大語言模型(LLM)在性能較弱的硬件設備上流暢運行,以此降低功耗和成本。然而,有這樣一位技術愛好者,他選擇了一條截然不同的道路,試圖在1982年推出的經典游戲機Commodore 64上實現AI模型的運行。
這位技術先驅名叫Maciej Witkowiak,他啟動了一個名為“Llama2.c64”的新項目,目標是在Commodore 64上運行一個簡化版的AI。這項挑戰不僅考驗著Witkowiak的技術實力,更是對AI技術邊界的一次大膽探索。
據了解,Llama2.c64項目并非簡單地將現代AI模型移植到Commodore 64上,而是經過了精心的優化和適配。Witkowiak利用oscar64工具,將LLama2的一個260KB大小的tinystories模型成功移植到了Commodore 64上,但前提是這臺經典游戲機需要配備至少2MB的擴展內存單元(REU)。
盡管這個AI模型并非用于聊天的場景,但它卻能在Commodore 64上展現出驚人的故事生成能力。Witkowiak描述道,這個模型就像是一個3歲的孩子,在聽到故事的開頭后,會盡自己所能地繼續講述下去,雖然有時會顯得有些胡言亂語,但考慮到其運行的硬件條件,這樣的表現已經足夠令人驚嘆。
從Llama2.c64生成的故事示例中,我們可以看到AI在有限的硬件資源下所展現出的創造力和延續性。這些故事雖然簡單,卻充滿了童趣和想象力,仿佛帶我們回到了那個純真的年代。
對于一臺已經43歲的老電腦來說,能夠在如此有限的硬件條件下運行AI模型,并生成出具有連貫性和趣味性的故事,無疑是一項了不起的成就。Witkowiak的Llama2.c64項目不僅展示了AI技術的無限可能,也讓我們重新審視了那些經典硬件設備的潛力。