1. これは何の話?

AI規制の動向を追う企業経営者や法務担当者向けに、ニューヨーク州で成立したRAISE Act(Responsible AI Safety and Education Act)をお伝えします。Kathy Hochul知事がこの法案に署名し、フロンティアAIモデルの開発者に安全性と透明性のフレームワークを義務付けました。法律は2027年1月1日に施行されます。
2. 何がわかったか
RAISE Actは大規模AIモデルの開発者に対し、技術的・組織的な安全性およびセキュリティプロトコル、テスト・評価手順の文書化と公開を求めています。さらに、モデル安全インシデントが発生した場合は発覚から72時間以内に州への報告が義務付けられます。インシデントには、ユーザー要求外の自律的行動、技術管理の重大な障害、モデルへの盗難・悪用・不正アクセスが含まれます。
3. 他とどう違うのか
Hochul知事はこの法律がカリフォルニア州の透明性法を参考にしていると述べ、連邦政府の規制が遅れる中で主要テック州間で統一的なベンチマークを作ろうとしています。初回違反で最大100万ドル、再犯で最大300万ドルの民事罰則が設定されている点も、実効性を高める要素です。また、コンプライアンス責任者の指名が義務付けられています。
4. なぜこれが重要か
トランプ大統領が州のAI規制に対抗する大統領令を発令した直後のタイミングでの成立は、州レベルでのAI規制の意志を示すものです。OpenAIやAnthropicなど主要AI企業がこの規制の対象となる可能性が高く、全米でのAI規制の方向性に影響を与える先行事例となります。
5. 未来の展開・戦略性
ニューヨーク州とカリフォルニア州という二大テック州が同様の方向性を示すことで、他州も追随する可能性があります。連邦レベルでの統一規制がない中、企業は州ごとの規制を個別に遵守する必要が生じており、コンプライアンスコストの増大が予想されます。一方で、明確な基準が示されることで、予測可能性が高まる面もあります。
6. どう考え、どう動くか
たとえば、米国市場向けにAIサービスを提供している企業であれば、RAISE Actの要件を自社の安全性フレームワークに反映させる準備を始める必要があります。
指針:
- 自社が「大規模AIモデル開発者」に該当するかどうかを法務部門と確認する。
- 現在の安全プロトコルとインシデント報告体制をRAISE Actの要件と照らし合わせる。
- 2027年1月の施行に向けたコンプライアンスロードマップを策定する。
次の一歩:
- 今日やること:RAISE Actの法案全文(S6953B)を入手し、要件の詳細を確認する。
- 今週やること:法務・コンプライアンス部門とミーティングを設定し、影響範囲を議論する。
7. 限界と未確定
- 「大規模AIモデル」の具体的な定義(パラメータ数、計算量など)は法案で確認が必要です。
- トランプ大統領のAI訴訟タスクフォースがこの法律に異議を申し立てる可能性があります。
- 日本企業への適用範囲(米国内でのサービス提供時のみか等)は不明確です。
8. 用語ミニ解説
- 最先端の能力を持つ大規模AIモデルを指す呼称です。(フロンティアモデル / Frontier Model)
- AIモデルの安全性に関する事故や異常事態のことです。(モデル安全インシデント / Model Safety Incident)
9. 出典と日付
CIO Dive(公開日:2025-12-22):https://www.ciodive.com/news/new-york-ai-model-safety-requirements/808557/






