1. これは何の話?

Figure AIの元安全エンジニアが、同社ヒューマノイドが人に危害を与えうる力を持つのに安全対策が不十分だと警告したところ解雇されたとして提訴したニュースです。訴状では2025年9月ごろ社内に懸念を伝えたが十分な対応がなかったと主張しています。対象機は可搬重量20kg級のF.02系と見られます。

2. 何がわかったか

訴状は、ロボットの力の大きさ自体ではなく、安全要件と評価プロセスが不十分だと指摘しています。非常停止や安全監視の設計を巡り社内で議論が割れていたとされ、Figure側は詳細な反論をまだ公表していません。現時点で実際の事故件数やヒヤリハット事例は公開されておらず、事実関係は訴訟を通じて確認される見込みです。

3. 他とどう違うのか

ヒューマノイドはいずれも強い力を持ち得ますが、それが法廷で安全論点として争われるケースはまだ少数です。TeslaやBoston Dynamicsが公開デモで安全距離を保つ一方、Figureは実工場投入を早期に進めたぶん、安全議論が前倒しで表面化した形です。実サービス導入と同時に安全基準が問われる先行事例になります。

4. なぜこれが重要か

人と同じ空間で働くロボットでは、「転倒してぶつかる」「誤作動で人をつかむ」といった極端なシナリオをどう規制・保険・契約で扱うかがビジネスリスクになります。今回の訴訟は、技術性能よりも安全基準と説明責任が採用判断を左右することを示しています。導入企業は安全評価と開示をセットで求められる流れが強まりそうです。

5. 未来の展開・戦略性

今後は、自動車のNCAPに類する「衝突時の力・速度・制動性能」の標準テストがロボットにも求められる可能性があります。メーカーは安全性能を上げるだけでなく、第三者評価と開示体制を整えることが競争力になります。Figureのような先行企業が叩かれながら標準を作り、後発が従う構図が考えられます。

6. どう考え、どう動くか

具体例:介護や物流で人と同じ空間にロボットを入れる場合、安全試験と認証を導入検討の最上位に置き、転倒時や把持ミスのリスクをシミュレーションする。

指針:

  • まず人と近接する現場(製造・物流・介護)で、安全認証や第三者評価を導入条件に設定する。
  • 安全要求と監査ログを契約・PoC設計段階で明文化し、ベンダーに具体的なテスト結果の開示を求める。
  • 2〜4年以内に整備が進むであろう各国の安全規格や保険要件をウォッチし、導入計画に織り込む。

次の一歩: ・今日やること:自社のロボット安全基準やガイドラインの有無を確認する。 ・今週やること:今回の訴訟の続報と、主要ベンダーの安全ポリシー表明をチェックし、差分をメモする。

7. 限界と未確定

  • 訴状とFigure側の正式回答は断片的で、事実関係は裁判で整理される必要があります。
  • 実稼働での事故件数やヒヤリハット情報は公開されておらず、安全実績を定量評価できません。
  • 規制当局が本件をどう扱うか未定で、今後の標準や認証制度に影響が出る可能性があります。

8. 用語ミニ解説

  • 非常停止:危険を検知した際にシステム全体を即時停止させる安全機構。

9. 出典と日付

Robotics & Automation News(公開日/最終確認日:2025-11-26/2025-11-28):https://roboticsandautomationnews.com/2025/11/26/former-figure-ai-engineer-at-claims-companys-humanoid-robots-powerful-enough-to-fracture-human-skull/96962/