EU新機械規則(2023/1230)の要点と日本への影響
指令から規則へ — AI・サイバーセキュリティ時代の機械安全規制
1 はじめに — 機械指令から機械規則へ
EU(欧州連合)の機械安全規制が、17年ぶりに全面改正された。2006年に制定された機械指令(Machinery Directive 2006/42/EC)(1)が、2023年6月にEU新機械規則(Regulation (EU) 2023/1230)(2)として採択され、2027年1月20日に適用が開始される。
この改正は、記事1で論じたJIS B 9700(ISO 12100)を頂点とする機械安全規格体系にとって、大きな転換点となる。新機械規則は、AI搭載機械、サイバーセキュリティ、ヒューマンロボットコラボレーション(HRC)という、従来の安全規格が想定していなかった領域への対応を法的に義務づける(3)。
本記事は、本シリーズの「補足記事」として、EU新機械規則の主要変更点を解説し、JIS B 9700を中心とする安全体系への影響を分析する。記事1〜6で論じた安衛法・JIS体系——リスクアセスメント(Risk Assessment)による危険源(Hazard)の同定と、3ステップメソッドによるリスク低減——と対比することで、日本企業がEU向け輸出機械において直面する課題を明確にする。
2 1. 「指令」から「規則」への移行
2.1 Directive と Regulation の本質的差異
EU法制において、指令(Directive)と規則(Regulation)は根本的に異なる法形式である(4):
| 法形式 | 適用方式 | 加盟国の裁量 | 結果 |
|---|---|---|---|
| 指令(旧: 2006/42/EC) | 各加盟国が国内法に転換 | 大きい | 国ごとに微妙な差異 |
| 規則(新: 2023/1230) | EU全域で直接適用 | なし | 27か国で完全統一 |
旧機械指令では、たとえばドイツ(Maschinenverordnung)、フランス(Décrets)、イタリア(Decreto Legislativo)がそれぞれ国内法として実装しており、細部に差異が存在した。新機械規則は、この差異を解消し、EU域内のどの加盟国に製品を上市しても同一の法的要件が適用される(2)。
日本企業にとっての実務的な意味は明確である。従来は輸出先の加盟国ごとに微妙に異なる要件を確認する必要があったが、新規則ではEU全体で単一の法的要件に対応すれば足りる。 この統一化は、コンプライアンスコストの低減に寄与しうる一方、規則の直接適用は加盟国による解釈の余地を排除するため、 要件の厳格性が全加盟国で均一に適用されることも意味する。
2.2 移行タイムライン
新機械規則の適用タイムラインは、重複適用期間なしの明確な切り替え方式を採用する(5):
2023年6月14日 採択
2023年7月19日 発効(20日後)
│
▼ 42か月の移行期間
│
2027年1月20日 適用開始(旧指令は同日失効)
2027年1月20日以前に上市(placed on the market)される機械には旧指令が適用され、同日以降に上市される機械には新規則が適用される。中間の重複期間は設けられていない。2026年3月現在、適用開始まで約10か月である(3)。
3 2. 主要変更点
新機械規則は旧指令と約90%が同一であり(6)、変更は主に以下の5つの領域に集中する。
3.1 2.1 AI・自律システムへの安全要求
新機械規則の最も注目すべき変更点は、AI搭載機械に対する明示的な安全要求の導入である(2)。Recital 54は「自己進化的動作」(self-evolving behaviour)を有するシステムに対して、特別な安全評価を要求する。
対象となるシステムの特性:
- データ依存性: 動作が訓練データの特性に依存する
- 不透明性(opacity): 決定過程の説明が困難
- 自律性: 外部指示なしに独立的に行動する
- 接続性: ネットワーク接続により動作が動的に変化する
これらの特性を持つ機械は、Annex I Part AまたはPart Bの分類にかかわらず、第三者(Notified Body)による適合性評価が義務となる(3)。
さらに、Annex III(必須安全衛生要件)は以下のドキュメントの整備を要求する:
- データガバナンスドキュメント: 訓練データの品質管理とバージョン管理
- システム設計仕様書: アルゴリズムの基本構造と意思決定ロジック
- AI決定過程の説明: Explainability(説明可能性)の確保
- トレーサビリティ体系: 変更ログとインシデント記録との連携
この要件は、記事4で論じたJIS B 9705-1(ISO 13849-1)やJIS B 9961(IEC 62061)の枠組みでは対応できない領域であり、安全制御の概念が「故障の確率的管理」から「学習の品質管理」へ拡張されたことを意味する[(7)](8)。
具体例を挙げれば、画像認識安全システム(セーフティライトカーテンのAI版)が、訓練データに含まれなかったポーズの人体を認識できず停止しなかった場合、これは従来の「ランダム故障」でも「系統的故障」でもなく、訓練データの偏りに起因する新種の安全リスクである。このリスクに対処するためにデータガバナンスドキュメントが要求されている(9)。
3.2 2.2 サイバーセキュリティ要求
新機械規則のArticle 25は、安全関連制御システムとソフトウェアが、偶然の故障および意図的なサイバー攻撃の両方に対して耐性を持つことを要求する(2):
製造者は「製品の安全性の保護に限定された比例的対策」を講じなければならない
記事4で論じた安全関連制御システムの設計において、従来はランダム故障(ハードウェアの確率的故障)と系統的故障(設計・ソフトウェアの欠陥)が主な対象であった(9)。新機械規則は、これに意図的攻撃という第3のカテゴリを追加したことになる。
具体的な対策として求められるのは:
- 暗号化: 安全関連通信の保護(Safety PLC間通信、安全センサネットワーク)
- 認証メカニズム: 不正アクセスの防止(パラメータ変更への多要素認証等)
- 入力値検証: 外部入力の妥当性確認(安全関連入力の範囲チェック)
- ソフトウェア更新戦略: 脆弱性パッチの配布と検証(安全機能への影響評価を含む)
- ログ管理: セキュリティイベントの記録と安全インシデントとの関連付け
注目すべきは、この要件が「安全性の保護に限定された比例的対策」を求めている点である。製品全体のIT セキュリティではなく、安全機能を脅かすサイバーリスクに限定した対策が求められる。この限定は、過剰なセキュリティ対策が安全機能の応答時間を悪化させるリスクを考慮したものである。
この要件は、IEC 62443(Industrial Communication Networks — Network and System Security)(10)と密接に関連する。IEC 62443はOT(Operational Technology)セキュリティの包括的規格群であり、新機械規則のサイバーセキュリティ要求の技術的実装にはIEC 62443が参照される。
さらに、EU Cyber Resilience Act(CRA)(11)は、デジタル要素を含むすべての製品にサイバーセキュリティ要件を課す規則であり、新機械規則と相互補完的に適用される。同様にEU AI Act(12)は高リスクAIシステムの分類・要件を定めており、AI搭載機械は両規則の要求を同時に満たす必要がある。
3.3 2.3 Annex構造の2階層化
旧指令のAnnex IVは高リスク機械の単一リストであったが、新規則はこれを2階層に改編した(6):
Annex I Part A(最高リスク):
- 第三者(Notified Body)による適合性評価が必須
- 「深刻な本質的リスク」が存在し、かつ以下の1つ以上に該当:
- 関連する整合規格の欠如
- 整合規格適用後も残存するリスクの実績
- 整合規格の誤用実績
- リスク評価方法における不確実性
Annex I Part B(高リスク):
- 該当する整合規格で完全にカバーされている場合 → 内部管理のみ可(第三者不要)
- 整合規格でカバーされていない場合 → 第三者関与モジュールを適用
この2階層化は、リスクに応じた比例的な規制アプローチを実現するものであり、記事1で論じたISO/IECガイド51(13)のA規格→B規格→C規格の階層構造と思想的に整合する。
Part Aの「深刻な本質的リスク」の判断基準に「リスク評価方法における不確実性」が含まれている点は注目に値する。AI搭載機械のリスク評価は、従来の機械とは異なり、訓練データの分布やモデルの汎化能力に依存するため、リスク評価そのものの不確実性が本質的に大きい。この認識が、AI搭載機械を第三者評価義務の対象とする根拠の一つとなっている(2)。
3.4 2.4 ヒューマンロボットコラボレーション(HRC)の明文化
旧指令は産業用ロボットの安全を基本的要件として定めていたが、協働ロボット(Cobots) の安全要件は明文化されていなかった。新規則は以下を要求する(5):
- ロボットアクションの予測可能性と理解可能性
- 音声・身振り・HMI(Human-Machine Interface)を含む人間コマンドへの適切な応答
- 自律移動ロボット(AMR: Autonomous Mobile Robot)の監視機能
- 心理的安全: ロボット操作時の心理的ストレス・威嚇の考慮
「心理的安全」の概念は、従来の機械安全(物理的危害の防止)の枠を超える新しい要素である。ISO/TS 15066(14)は協働ロボットの力制限値や速度・分離監視の技術仕様を定めるが、心理的側面は未対応であり、新規則の要求に応じた規格改訂が必要となる。
記事2aで論じた危険源同定において、JIS B 9700は「ストレス、姿勢、注意力等の人間工学的原則の無視」をリスク要因として挙げているが(15)、ロボットの存在そのものが作業者に与える心理的影響は、従来の人間工学的リスクの枠を超える。協働ロボットが人間の作業空間内で自律的に動作する環境では、予期しない動作への不安がヒューマンエラーの誘因となりうる。
3.5 2.5 その他の変更点
デジタル指示書: Article 39-40により、取扱説明書のデジタル形式での提供が許容される。ただし購入時点でのペーパー版の無償提供義務は維持される(4)。
実質的改造(Substantial Modification): 機械の改造が「実質的改造」に該当する場合、改造後の機械は新たに上市される機械と同等の適合性評価を受ける必要がある。この基準の明確化は、既存設備の改修が多い製鉄所(記事5)や射場(記事6)の設備管理に影響しうる(2)。
ソフトウェアの安全コンポーネント化: 安全機能を実現するソフトウェアが、ハードウェアから独立して「安全コンポーネント」として扱われる。これは記事4で論じたJIS B 9705-1の枠組みにおけるソフトウェア安全の位置づけに変更をもたらす可能性がある(7)。
市場監視の強化: 不適合製品に対する当局(市場監視当局: Market Surveillance Authority)の権限が強化され、より迅速な執行措置(市場からの撤去、リコール命令等)が可能となった(4)。これは、IoT接続機械の増加に伴い、上市後に発見されるリスク(脆弱性、意図しないAI動作等)への事後対応の重要性が高まったことを反映している。
電気安全: EN 60204-1(16)は機械の電気安全に関する整合規格であり、新機械規則下でも引き続き適用される。ただし、ネットワーク接続機能を持つ電気系統については、サイバーセキュリティ要件との整合が新たに求められる。
4 3. 整合規格とJIS B 9700の関係
4.1 整合規格(harmonised standards)の法的位置づけ
EU法制において、整合規格は特別な法的効果を持つ。新機械規則のRecital 61は以下を明示する(2):
「整合規格(EN ISO 12100, ISO 13849-1, IEC 62061等)への適合は、Annex IIIの必須安全衛生要件への適合を推定させる」
この適合推定(presumption of conformity)は、整合規格に完全に適合している場合、製造者がAnnex IIIの要件を満たしていると法的に推定されることを意味する。逆に言えば、整合規格に適合していなくても、Annex IIIの要件を直接的に満たしていることを個別に証明すれば法的義務は果たされる。
4.2 JIS B 9700(ISO 12100)の位置
JIS B 9700は、ISO 12100の一致規格(IDT)であり、ISO 12100はEN ISO 12100としてEUの整合規格に指定されている(15)。したがって:
新機械規則(EU 2023/1230)
└── Annex III: 必須安全衛生要件
└── 適合推定の根拠
├── EN ISO 12100(= JIS B 9700): A規格
├── EN ISO 13849-1(= JIS B 9705-1): B規格
└── EN IEC 62061(= JIS B 9961): B規格
つまり、JIS B 9700(ISO 12100)の3ステップメソッドは、新機械規則下でも安全設計の基本方法論として有効である(17)。記事1で論じたリスクアセスメントの枠組み、記事2aの危険源同定、記事2bのリスク見積りは、新規則下でも変わらずに適用される。
4.3 ISO 12100の限界と新たなリスクカテゴリ
ただし、新機械規則が追加した要件——AI安全、サイバーセキュリティ、心理的安全——は、ISO 12100の枠組みだけでは対応しきれない(3)。ISO 12100は物理的危害(機械的、電気的、熱的、化学的危険源など)を主な対象としており、以下のリスクカテゴリは未対応である:
| 新規リスクカテゴリ | ISO 12100のカバー範囲 | 追加対応が必要な規格 |
|---|---|---|
| AI自律動作リスク | 適用外 | EU AI Act + 新機械規則Annex III |
| サイバー攻撃リスク | 適用外 | IEC 62443(10) + CRA(11) |
| 心理的安全 | 適用外 | ISO/TS 15066(14)改訂(予定) |
| ソフトウェア更新リスク | 部分的 | 新機械規則固有の要件 |
この構造は、記事1で論じたA規格→B規格→C規格の階層に新たな「横串」が追加されたと解釈できる(13)。
従来の構造:
EU規則 → 整合規格(EN ISO 12100 → EN ISO 13849-1 / EN IEC 62061)
新たな構造:
EU規則(2023/1230)─┬── 整合規格(EN ISO 12100 等): 物理的安全
├── EU AI Act: AI安全
├── Cyber Resilience Act: サイバーセキュリティ
└── IEC 62443: OTセキュリティ
ISO 12100は依然としてA規格の頂点にあるが、その「上位」にEU規則レベルの新要件が存在し、ISO 12100ではカバーされない領域を補完している。記事1で論じた「安衛法→基発指針→JIS→ISO/IEC」の日本の法令チェーンとの対比で言えば、EUでは「EU規則→整合規格→EN/ISO」の法令チェーンが、AI・サイバーセキュリティという新たな枝を伸ばしたことになる(17)。
5 4. 適合性評価の変更
5.1 Notified Body(認証機関)の役割拡大
新機械規則では、Notified Body(通知機関)の関与が必要な場面が拡大した(3)。特にAI搭載機械や自己進化的動作を持つシステムは、Part AまたはPart Bの分類にかかわらず第三者評価が義務となる。
選択可能な適合性評価モジュール(Part A用):
| モジュール | 構成 | 対象 | 典型的な適用場面 |
|---|---|---|---|
| B + C | EU型検査 + 内部製造管理 | 整合規格で完全にカバー | 量産機械の標準的経路 |
| B + D | EU型検査 + 品質保証 | 品質管理体制を重視 | 品質システム認証済み企業 |
| H | 完全品質保証 | 統合的品質システム | ISO 9001保有の大企業 |
| G | 単位検査 | 少量生産・一品もの | 製鉄所向け専用設備等 |
5.2 ソフトウェア更新による再評価
新機械規則は、上市後のソフトウェア/ファームウェア更新が安全機能に影響を与える場合、再認証が必要になる可能性を明示した(5)。これは従来の機械安全規制にはなかった概念であり、継続的なコンプライアンス管理を製造者に要求する。
記事4で論じたJIS B 9705-1のPL(パフォーマンスレベル)やJIS B 9961のSIL(安全度水準)は、設計段階で達成される静的な指標である[(7)](8)。しかし、AIモデルの再訓練やファームウェア更新によってソフトウェアの挙動が変化する場合、設計段階で確認されたPL/SILが維持されているかの継続的検証が必要となる。
この「継続的検証」の概念は、従来の機械安全にはなかった。記事2bで論じたリスクアセスメントは「機械のライフサイクルの各段階」で実施されるが(18)、ソフトウェア更新は設計段階でも使用段階でもない第3のカテゴリであり、リスクアセスメントの実施タイミングに関する新たな議論が必要である。
5.3 デジタル適合宣言
新機械規則は、EU適合宣言(Declaration of Conformity)をデジタルフォーマットで発行することを認める(2)。 これにより、適合情報の検索性と追跡可能性が向上する。 さらに、技術文書のデジタル保管も許容されるが、Notified Bodyが要求した場合は物理的文書の提供義務が維持される。 デジタル化は文書管理コストの削減に寄与するが、長期保存(機械の耐用年数+10年)におけるフォーマットの持続可能性が新たな課題となる。
6 5. 日本企業への影響
6.1 EU向け輸出機械の対応
新機械規則は、EU域内に上市されるすべての機械に適用される。したがって、日本からEUに機械を輸出する企業は、2027年1月20日以降に上市する機械について新規則への適合が必要となる(2)。
対応が必要な主な業種:
- 工作機械メーカー: AI予測保全、自律加工最適化機能を搭載する機械
- 産業用ロボットメーカー: AI搭載ロボット、協働ロボット(HRC対応)
- 建設機械メーカー: 自律走行・遠隔操作機能を搭載する機械
- 半導体製造装置メーカー: 高度プロセス制御にAI/MLを活用する装置
- 安全機器メーカー: 安全コンポーネントとしてのソフトウェア製品
特に産業用ロボットメーカーは、AI搭載機械とHRC(協働ロボット)の両方の新要件に対応する必要があり、影響が最も大きい(5)。自律動作機能を持つ協働ロボットは、Part Aの適合性評価(第三者必須)に分類される可能性が高く、設計から認証取得までのリードタイムの延長を織り込む必要がある。
日本の産業用ロボットメーカーにとって、EUは最大級の輸出市場である。2024年のロボット出荷統計(国際ロボット連盟IFR)では、欧州市場は東アジアに次ぐ第2の市場であり、新機械規則への非対応は市場アクセスの喪失を意味する。2027年1月20日の適用開始に向けて、設計段階からの対応——特にAI安全文書化とサイバーセキュリティ評価——が不可欠である(3)。
6.2 国内市場への間接的影響
新機械規則は日本国内で販売される機械には直接適用されない。安衛法と基発指針が国内の法的枠組みであることに変わりはない[(19)](17)。
しかし、EUの規制は国際的な安全基準の策定に強い影響力を持つ。いわゆるブリュッセル効果(Bradford, 2020)——EUの規制基準が国際的な事実上の標準となる現象——は、機械安全の領域でも顕著である。旧機械指令(2006/42/EC)がISO 12100の策定に強い影響を与えたように、新機械規則のAI・サイバーセキュリティ要件が今後のISO/IEC規格改訂に反映される可能性は高い(1)。
JIS規格はIDT(一致規格)としてISO規格に追従するため、ISO 12100の次期改訂(2023年に第4版が発行(15))においてAI・サイバーセキュリティへの対応が議論されれば、JIS B 9700にも波及する。つまり、EU新機械規則は「EU向け輸出機械の問題」にとどまらず、中長期的には日本国内の安全規格体系にも影響を及ぼしうる。
6.3 推定適合コスト
複数の認証機関の推定に基づく、新規則対応の追加コスト[(3)](6):
| 対応項目 | 推定コスト | 備考 |
|---|---|---|
| AI安全文書化 | €18,000–55,000/機械 | 訓練データ検証、Explainability確保 |
| サイバーセキュリティ評価 | €10,000–30,000/認証 | IEC 62443ベースの評価 |
| 第三者適合性評価(Part A) | €15,000–40,000/評価 | Notified Body費用 |
| ドキュメント整備 | 200–500工数 | 多言語デジタル指示書 |
企業規模別に見ると、大企業は既存のコンプライアンス体制を拡充すれば対応可能であるが、中堅企業・スタートアップは外部コンサルの活用やR&D投資の増加を余儀なくされる(6)。AI/ロボティクスのスタートアップにとっては、市場参入障壁の上昇となりうる。
なお、新機械規則は中小企業への配慮も一定程度組み込んでいる。Part B機械が整合規格で完全にカバーされている場合は第三者評価が不要であり、従来と同等の内部管理で足りる。この点は、AI・自律機能を持たない伝統的な機械を製造する中小企業にとって、負担増が限定的であることを意味する(4)。
7 6. 製鉄所・射場設備への影響
7.1 大規模設備の適合性評価
記事5で論じた製鉄所設備や記事6で論じた射場設備は、基本的にEU市場に上市される「機械」ではなく、事業者が自ら設置・使用する設備である。したがって新機械規則の直接的な適用対象ではない(2)。
ただし、これらの設備を構成する個別機器——制御システム、安全装置、クレーン、搬送系——がEUの規格に基づいて設計・製造されている場合、間接的な影響は避けられない。特に以下の点は留意が必要である:
OTセキュリティとの連携: 記事5で論じた製鉄所の制御システムは、IEC 62443に基づくOTセキュリティ対策の対象である(10)。World Steel Association(20)が提唱するプロセス安全管理(PSM)の枠組みにおいても、制御系統のセキュリティは重要課題として位置づけられている。製鉄所では、高炉制御、転炉制御、連続鋳造制御といったプロセス制御系統がネットワーク化されており、サイバー攻撃による制御系統の乗っ取りは、溶鋼流出やガス漏洩といった壊滅的な結果を招きうる。新機械規則のサイバーセキュリティ要求は、この既存のIEC 62443枠組みと整合する。
実質的改造(Substantial Modification): EU域内で運用される大規模設備の改修が「実質的改造」に該当する場合、改修後の設備に新たに上市される機械と同等の適合性評価を受ける必要がある(2)。この判断基準の明確化は、設備の長寿命運用(製鉄所では数十年)において重要な論点となる。たとえば、製鉄所の制御システムをDCS(分散制御システム)からAI予測制御に置き換えた場合、これが「実質的改造」に該当するかの判断が問われる。
射場設備への影響: 記事6で論じた射場設備のうち、飛行安全システム(AFSS等)はソフトウェア安全コンポーネントとしての性格を持つ。EU域内の射場(フランス領ギアナCSG等)でAI搭載の飛行安全システムを導入する場合、新機械規則のAI安全要件との整合が必要となる可能性がある(12)。米国ではFAA 14 CFR Part 450(21)が射場安全の連邦規制を定めているが、AI安全の明示的要件は未整備であり、EUの先行的規制がグローバルスタンダードの方向性を示す可能性がある。
7.2 日本の安衛法体系との対比
記事1〜6で論じてきた安衛法・JIS体系と、EU新機械規則の対比を整理する:
| 観点 | 日本(安衛法・JIS) | EU(新機械規則) |
|---|---|---|
| 法的形式 | 安衛法(事業者義務)+ JIS(任意規格) | 規則(製造者義務、直接適用) |
| 安全設計方法論 | JIS B 9700(3ステップ) | EN ISO 12100(同一) |
| 制御安全 | JIS B 9705-1 / JIS B 9961 | EN ISO 13849-1 / EN IEC 62061 |
| AI安全 | 規定なし | Annex III + EU AI Act |
| サイバーセキュリティ | 規定なし | Article 25 + CRA |
| 適合性評価 | 自己評価(事業者責任) | 第三者評価(Part A必須) |
| 法の対象 | 事業者(使用者) | 製造者(上市者) |
最下行の「法の対象」の差異は本質的に重要である。安衛法は設備を使用する事業者に安全措置義務を課すのに対し、EU新機械規則は機械を製造・上市する製造者に安全設計義務を課す[(19)](2)。この構造的差異は、記事1で論じた安衛法の体系(事業者義務中心)とEU法制(製造者義務中心)の根本的な違いを反映している。
具体的に言えば、製鉄所が自社設計の専用設備を自社工場で使用する場合、安衛法では事業者自身のリスクアセスメントが義務であるが(17)、EU法制では同じ設備を「上市」しない限り新機械規則の適用外である。逆に、日本の工作機械メーカーがEUに機械を輸出する場合、製造者としての安全設計義務はEU法が課し、日本の安衛法は直接関与しない。この「誰の義務か」の違いが、両体系の運用上の最大の差異である。
記事6で論じた射場設備の文脈では、射場設備の多くは一品もの(bespoke equipment)であり、「上市」の概念が適用しにくい。EU域内で射場を運用する場合でも、新機械規則と各国の労働安全法制(英国のHSWA 1974(22)等)の重畳が論点となる。
8 7. 英国の離脱と独自展開
2020年のEU離脱(Brexit)により、英国は独自の機械安全法制を展開する立場にある。英国政府は2024年に「Machinery Safety Legislation: Call for Evidence」を公表し、新機械規則の英国版導入を検討している(22)。
記事6で論じた英国のSpace Industry Act 2018(23)が示すように、英国はSafety CaseとALARP原則に基づく独自の安全哲学を持つ。新機械規則をそのまま国内法として採用するか、独自の修正を加えるかは、英国のEU離脱後の規制戦略の試金石である。
日本企業にとっては、EU向けと英国向けで異なる規制要件が発生する可能性を意味する。旧指令時代は「EU = 英国」として単一の対応で足りたが、Brexit後はEU + 英国の2系統の適合性管理が必要になりうる(1)。
同様の動向は他の主要市場にも見られる。オーストラリアは独自のWork Health and Safety(WHS)法制に基づく機械安全規制を運用しており、韓国もKOSHA(韓国産業安全保健公団)を通じた独自の安全認証制度を持つ。グローバルに機械を輸出する日本企業にとっては、EU新機械規則への対応を国際規制の最高水準(ハイウォーターマーク)として設計に組み込み、各国固有要件をローカライゼーションとして対応する戦略が合理的である。
9 8. 移行期間における実務的課題
2026年3月現在、適用開始まで約10か月の移行期間中にある。この期間における実務的課題は以下の通りである:
整合規格の空白(standardisation gap): 新機械規則のAI・サイバーセキュリティ要件に対応する整合規格が、適用開始までに整備されるかは不透明である(3)。整合規格が未整備の領域では、製造者はAnnex IIIの必須安全衛生要件への適合を個別に証明する必要があり、第三者評価のコストと期間が増大する。
デュアルトラック設計: 移行期間中に設計・製造が進行する機械については、2027年1月20日の上市時期に応じて旧指令と新規則のいずれが適用されるかが変わる。量産機械メーカーは、同一製品ラインで旧指令適合品と新規則適合品を並行管理するデュアルトラック体制が必要となりうる。
サプライチェーンの対応: 安全コンポーネント(Safety PLC、安全センサ、安全ソフトウェア等)の供給者も新規則への対応が必要であり、完成品メーカーとコンポーネント供給者の間の責任境界の再整理が求められる。特にAI安全の文脈では、AIモデルの開発者(ソフトウェアサプライヤー)と機械の製造者(ハードウェアインテグレーター)のどちらがデータガバナンスの主体となるかは、現行のサプライチェーン契約では未整理の領域である。
これらの実務的課題は、新機械規則が「制定」から「運用」のフェーズに移行する際に顕在化する。 適用開始後の初期段階では、整合規格の充実と判例の蓄積が、規制の実効性を左右する。
10 9. 今後の展望 — 機械安全規格体系の再編
新機械規則の適用開始は、機械安全規格体系の再編の起点となる。以下の動向が予想される:
ISO/IEC規格の改訂: ISO 12100(24)、ISO 13849-1、IEC 62061のいずれも、AI・サイバーセキュリティへの対応を含む改訂が議論される可能性がある。特にISO 13849-1のPL(パフォーマンスレベル)やIEC 62061のSIL(安全度水準)が、AI安全をどのように組み込むかは国際的な規格策定の焦点となる[(7)](8)。IEC 61508(9)の機能安全フレームワークもAI時代への拡張が求められており、「ソフトウェアの系統的故障」の定義にAIモデルの偏り(bias)や分布外入力(out-of-distribution input)が含まれるかが議論の対象となりうる。
日本の対応: 日本では、経済産業省と厚生労働省がそれぞれの所管で国際動向をモニタリングしている。安衛法の枠組みにAI安全やサイバーセキュリティを取り込むかは、中長期的な政策課題である。現時点では基発指針のリスクアセスメント(17)や日本機械工業連合会のRA実施ガイドライン(25)がカバーする範囲にAI固有のリスクは明示されていないが、JIS規格のISO追従を通じた間接的な反映は十分に想定される。ISO 31010(26)が提供するリスクアセスメント技法の中には、AI安全のリスク評価に応用可能な手法(ベイジアンネットワーク、モンテカルロシミュレーション等)が含まれており、これらの活用が議論の出発点となりうる。
産業界の対応: EU向け輸出実績のある日本の機械メーカーは、CEマーキング取得の経験を基に新規則への準備を進めることが想定される。特にAI搭載機械やHRC対応ロボットを扱うメーカーにとっては、AI安全文書化やサイバーセキュリティ評価といった新要件への早期対応が競争優位の鍵となる。
記事2aで論じた「合理的に予見可能な誤使用」の概念(15)は、AI搭載機械において新たな次元を獲得する。従来は人間が機械を「予見可能に誤使用」する場面が対象であったが、AI搭載機械ではAIが「予見困難に誤判断」する場面が新たなリスクカテゴリとして加わる。この拡張が、JIS B 9700の枠組みにどのように組み込まれるかは、今後の規格改訂の核心的論点である。
11 おわりに — デジタル時代の機械安全
EU新機械規則(2023/1230)は、17年にわたり運用された機械指令(2006/42/EC)を全面的に改正し、AI搭載機械、サイバーセキュリティ、ヒューマンロボットコラボレーションという、従来の安全規格が想定していなかった領域を法的規制の対象とした。
しかし本記事を通じて確認したように、新機械規則は既存の安全規格体系を置換するものではなく、拡張するものである。JIS B 9700(ISO 12100)の3ステップメソッド、JIS B 9705-1のPL、JIS B 9961のSILは、新規則下でも機械安全の基本方法論として完全に有効である[(15)](7)(8)。新規則が追加したのは、これらの既存方法論ではカバーしきれないデジタル時代の新しいリスクカテゴリへの対応である。
2027年1月20日の適用開始まで残り約10か月。EU向け輸出機械を製造する日本企業にとっては、適合準備の最終段階にある。
記事1〜6で論じた安衛法・JIS体系の理解は、EU法制との差異を正確に把握するための基盤である。安衛法が事業者に安全措置義務を課す体系であるのに対し、EU新機械規則は製造者に安全設計義務を課す。この構造的差異を正確に理解することが、両体系の比較分析と実務的な対応の出発点となる[(17)](19)。
機械安全の国際的な枠組みは、物理的危害の防止という「第1の柱」に加え、 AI安全とサイバーセキュリティという「第2の柱」を獲得しつつある。 この変化に対応するために必要なのは、既存の安全方法論の放棄ではなく、 その基盤の上への拡張である。
記事3で論じた「低頻度・高重篤度リスク」の枠組みは、AI搭載機械のリスク評価にも適用可能である(27)。AIの自律判断による機械的危害は、発生頻度こそ低いが、発生した場合の結果は従来の機械故障と同等以上に深刻となりうる。LOPA(防護層解析)の枠組みでAI安全を捉えることは、新機械規則の要件を既存の安全方法論に接続する一つのアプローチである。