Apple SiliconでLLMをファインチューニング!MLX + LoRAで日本語読解モデルを自作する方法 Posted on Mon Apr 20 2026 | 5 min | 2160 words | LiquidAI の LFM2.5-1.2B-JP モデルを Apple Silicon の MLX フレームワークで LoRA ファインチューニングするパイプラインを構築しました。JsQuAD(日本語読解)データセットで学習し、カスタム Chunked Loss と早期停止も実装しています。 [Read More] MLX LoRA LLM Apple Silicon ファインチューニング Python 機械学習