<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>ファインチューニング on サブカル科学研究会のブログ</title>
    <link>https://www.subcul-science.com/tags/%E3%83%95%E3%82%A1%E3%82%A4%E3%83%B3%E3%83%81%E3%83%A5%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0/</link>
    <description>Recent content in ファインチューニング on サブカル科学研究会のブログ</description>
    <generator>Hugo</generator>
    <language>en</language>
    <lastBuildDate>Mon, 20 Apr 2026 16:00:00 +0900</lastBuildDate>
    <atom:link href="https://www.subcul-science.com/tags/%E3%83%95%E3%82%A1%E3%82%A4%E3%83%B3%E3%83%81%E3%83%A5%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Apple SiliconでLLMをファインチューニング！MLX &#43; LoRAで日本語読解モデルを自作する方法</title>
      <link>https://www.subcul-science.com/post/20260420ft-llm/</link>
      <pubDate>Mon, 20 Apr 2026 16:00:00 +0900</pubDate>
      <guid>https://www.subcul-science.com/post/20260420ft-llm/</guid>
      <description>LiquidAI の LFM2.5-1.2B-JP モデルを Apple Silicon の MLX フレームワークで LoRA ファインチューニングするパイプラインを構築しました。JsQuAD（日本語読解）データセットで学習し、カスタム Chunked Loss と早期停止も実装しています。</description>
    </item>
  </channel>
</rss>
