ナイジェリアにおける人工知能の責任問題:先駆的考察――TheNigeriaLawyer
公開日: April 18, 2026 at 03:22 AM
News Article

コンテンツ
包括的な法的分析によれば、ナイジェリアの現行司法および規制枠組みは、人工知能(AI)に関連する損害から生じる責任を適切に処理するには不十分である。本論考はTheNigeriaLawyerが掲載したもので、著者はコンフィデンス・ムバングであり、現行の英米法上の原則および法令は、AIによって引き起こされた事案の被害者に実質的な救済を提供するには不適切であると主張している。\n\n本稿では、責任帰属を困難にするAIの三つの主要な特徴、すなわち「不透明性」「自律性」「分散型の行為主体性」を特定している。「不透明性」とは、機械学習モデルのブラックボックス化により、出力結果を入力データに遡って追跡できない状態を指し、これにより伝統的な過失責任基準に基づく過失の認定が困難となる。「自律性」とは、システムが事前にプログラムされた指示に依存せず独自に意思決定を行う能力を意味する。また、「分散型の行為主体性」とは、開発プロセスにおいて複数の関係者が関与することにより、開発者、ベンダー、運用者など間で責任が希薄化される現象を指す。\n\nナイジェリアでは、国立情報技術開発庁(NITDA)が主導する『国家AI戦略2024』や『人工知能に関する行動規範(草案)』といった政策が導入されているが、これらは拘束力のある立法措置ではなく、法的強制力に欠ける。現行法である『ナイジェリア個人情報保護法2023年』および『サイバー犯罪防止法2015年』も、不完全な形で適用されており、被害者が補償を得られないケースがしばしば見られる。特に金融分野における差別的与信審査や、医療分野におけるAIツールを用いた診断ミスなど、業種ごとの具体例が、こうした制度的失敗を浮き彫りにしている。\n\n欧州連合(EU)の『人工知能法』および英国の進化中の規制姿勢と比較検討した結果、ナイジェリアには教義的・構造的・制度的なギャップが存在することが明らかになった。EUはリスクベースのアーキテクチャを採用し、英国は原則ベースのアプローチを取っている一方、ナイジェリアでは裁判所および規制当局内に、監督を効果的に実施するための必要な技術的リテラシーが現時点で欠如している。著者は、国内のデジタル経済において被害が累積する前に、これらの空白を埋めるため、学術界および立法府による緊急の対応を呼びかけている。
キーインサイト
本稿の最も重要な示唆は、ナイジェリアの法制度が、自律型AIシステムによって生じた損害について救済を求める被害者に対して、信頼できる救済手段を現在提供していないという点にある。
この規制上の空白は、医療や金融といった重要分野へのアルゴリズム判断の拡大に伴い、国民の信頼を大きく損なう重大なリスクを孕んでいる。
EUや英国の比較モデルは潜在的なフレームワークを提示しているが、その成功裏の実施は、ナイジェリア国内の行政機関における制度的能力の構築に大きく依存する。
即時の立法的介入がなければ、AIをめぐる憲法上の権利と実際の救済手段との間のギャップは、さらに拡大する可能性が高い。