Thinking Machines Labは、初の製品となるTinkerを発表しました。これは、大規模言語モデルのファインチューニングを容易にし、かつ強力にするマネージドAPIです。LlamaやQwenなどのモデル向けに設計されたTinkerは、複雑なインフラストラクチャの管理に煩わされることなく、分散GPU上でPython学習ループを用いて100億以上のパラメータを持つモデルを学習・カスタマイズすることを可能にします。プリンストン大学やスタンフォード大学などの早期導入企業は、既に高度なAI研究にTinkerを活用しています。
もし気に入ったら購読料お願いします