Hapto AI(TM):ユーザーフィードバックに基づくファインチューニングに対応

本サイトではアフィリエイト広告を利用しています
できる限り正しい情報を提供するよう努めておりますが、正確性を保証するものではございません

ニュース

ニュースの要約

  • Hapto AI(TM)がユーザーのフィードバックに基づくファインチューニングに対応した
  • DPO(Direct Preference Optimization)を実現し、従来のRLHFより簡単に好みに合わせた触覚生成が可能になった
  • 触覚生成のクオリティ向上により、人間とロボットが共同利用できるPhysical AIとしての展開が期待される

概要

株式会社commissureは、独自開発中の触覚生成AI「Hapto AI(TM)」が、ユーザーの選好データからファインチューニングを行うDPO(Direct Preference Optimization)に対応したことを発表しました。

DPOでは、従来のRLHF(Reinforcement Learning from Human Feedback)で必要だった複雑な強化学習プロセスを回避できるため、人間の好みデータから直接ポリシーを最適化することが可能になります。これにより、触覚開発者がHaptoAIを使用することで、触覚生成のクオリティのベースラインが向上します。また、研究者・企業は特定の領域に特化したモデル設計、改善が可能となり、より個別最適化された触覚生成環境を構築できるようになります。

本成果はDiffusion Modelを基盤とした触覚生成AIのDPOを実現した世界で初めての事例だとのことです。今回のアップデートにより、実際の体験を通してのブラッシュアップや、特定業界・用途におけるデバイス特性、体験特性を反映した改善が可能になりました。

編集部の感想

    触覚体験の個別最適化が進むことで、人々の感覚体験がより豊かになっていくことが期待できそうだ
    ユーザーフィードバックを活用してモデルを改善していく仕組みは、新しい技術開発の方向性を示唆しているように感じる
    人間とロボットの共同利用を想定したPhysical AIの展開は、触覚通信の可能性を大きく広げるだろう

編集部のまとめ

Hapto AI(TM):ユーザーフィードバックに基づくファインチューニングに対応についてまとめました

今回のアップデートで、Hapto AI(TM)がユーザーのフィードバックに基づいてファインチューニングできるようになったことは大きな進歩だと評価できます。従来のRLHFよりも簡単に好みに合わせた触覚生成が可能になったことで、開発者や研究者、企業が触覚体験を個別最適化できるようになりました。これにより、人間の感覚体験がより豊かになっていくことが期待できるでしょう。

また、DPOを通じて触覚生成のクオリティ向上が図られたことは、人間とロボットの共同利用を想定したPhysical AIの展開にも寄与するものと考えられます。今後、触覚通信の可能性がさらに広がっていくことが期待されます。

参照元:https://prtimes.jp/main/html/rd/p/000000016.000118478.html