※この記事は児童ポルノを助長する意図の記事ではなくAIの知識や技術の理解を深める目的の記事、および専門家としてのAIの法整備に関する議論の備忘録を兼ねた論評です
2020年、CGで作られた児童ポルノを巡る裁判で、最高裁は「実在しない児童を描写した画像は児童ポルノに含まない」との判例を示した。漫画など架空の児童は同法の対象外とされる。
AIで作った女児わいせつ画像は「児童ポルノ」か 警察庁、法務省の見解は 学識者「新たに立法化を」|まいどなニュース (maidonanews.jp)
AIと性表現の規制に詳しい東洋大の加藤隆之教授(憲法)は、児童ポルノ法の保護対象が「裸にされる」などの実害に遭った児童としている以上、「実在の顔写真を基にAIが作った画像でも、その児童の裸体と同一性が認められない限り同法での摘発はできないだろう」と説明する。
AIで作った女児わいせつ画像は「児童ポルノ」か 警察庁、法務省の見解は 学識者「新たに立法化を」|まいどなニュース (maidonanews.jp)
という記事もある通りに、現状ではとても難しい問題である。
その点について解説をしておく。
生成AIについてのおさらい
まず前提として生成AIはたくさんのデータをもとに出力するものであるため、明確なモデルは存在しない。
ただ、誰かのモデルが非常に強いとか、誰かのデータのみ数万枚を利用してのオリジナル画像動画生成などはその誰かの色がかなり強いのでアウトよりのアウトなケースが多いと判断される。つまり適宜判断のアウトである。
良識の前提で利用する際に悪用するケースや犯罪に用いられるケースなどを考慮すると、そのような悪用についてはやはり世界中で早々に法整備は必要ではないかと思われる。
しかし犯罪に利用する訳ではない場合については、創造性や創作性などの観点からはAIの新たな市場や産業を考慮すると安易に規制をすべきではない意見も多い。
児童ポルノとして判断が難しい理由
・顔が幼いとかそんな理由で生成画像のモデル年齢を人間が勝手に決めることは困難、理由は根拠となるデータの組み合わせやデータ元が不明のため。
・幼い顔で明らかに顔は10代で児童ポルノ対象の顔だったとしても胸が高齢者女性でからだはしわしわの場合にどう判断するのか、または幼い顔で明らかに顔は10代で児童ポルノ対象の顔だったとしても肉体が筋肉ムキムキの男性ボディビルダーのようなマッチョな上半身裸の生成画像はどう判断するのか、同様に逆のケースの議論も存在する。つまり明らかな高齢者女性の顔で体が女児に見えてもそれは女児なのか?という議論などである。どう考えても生成AIでは児童ポルノとは言い難い事例が多数存在する
・そもそも世の中にには20歳以上でも10歳程度の肉体部位を有している女児のような女性が実際に多数存在している
・そのため顔も体も女児のように見えたとしても生成AIで何万人、何十万人という成人モデルを多数組み合わせた部位の集合体であり、女児が最初から含まれていない以上は女児にならない
・さらに生成されたものが実物の人間がモデルなのか、アニメがモデルなのか、比率はどの程度なのか、それも個別に明確にすることが困難である。アニメが含まれている時点で人間ではないという意見も生じる面がある。
などなど、最高裁の判断にいたると考えられる要素や要因は挙げればきりがない。
創造者は販売に関しては控えた方が無難
とはいえ、児童ポルノ生成と判断される犯罪になりえるあからさまな創作物の販売事例については現状ではやはり控えた方が無難であろうと思われます。
2023年8月時点では書籍などのコミックの創作物については数十年前から存在する女児の領域については法的な変化がないため販売されておりこちらは児童ポルノとは定義されておりません。
また、女児の人形や、俗にいうダッチワイフ、リアルラブドール、などのシリコン人形の女児についても児童ポルノとは定義されておりません。
また、児童ポルノ法の保護対象が「裸にされる」などの実害に遭った児童としている以上はAIに関する生成物が対象となることは、日本の法律以前に国民全体の認識や産業の構図や構造が大きく変化することがなければ非常に難しいとも言えますので、最高裁の判断は理解できます。
以上、2023年8月時点のAI生成の児童ポルノに関する専門家としての現状の解説と論評でした。
※この記事は児童ポルノを助長する記事ではなくAIの知識や理解を深める目的の記事、および専門家としてのAIの法整備に関する議論の備忘録を兼ねた論評です

コメント