人工知能AIには「砂漠」の画像がエロ画像に見えるらしい


人工知能には「砂漠」の画像がエロ画像に見えるらしい


 



Image: Farid Sani / Shutterstock.com


 



エロの哲学。



ロンドン警視庁には、児童虐待、児童ポルノにあたる画像を人工知能を使って調査していくというプロジェクトがあり、2、3年内をメドに実用化したい考え。が、どうやらこれが思ったより難航しているようす。なんでも、人工知能は砂漠と児童ポルノ画像の見分けがつかないんですって。



人工知能が困惑するのは、肌の色と砂漠の色。一面砂漠という画像を、裸の人と認識してしまうのです。いや、これはわからなくもないですよ…。担当者のMark Stokes氏いわく、スクリーンセーバーに砂漠画像を設定している人が不思議と多く、これにいちいち人工知能が反応している状態なんだとか。ロンドン警視庁では、児童ポルノだけでなく、ドラッグや武器などの画像を認識する人工知能スキャンのプロジェクトもあり、こちらは良好。しかし、なぜだか裸画像には弱い人工知能。



プロジェクトに協力しているのは、シリコンバレーのとある企業とのことですが、あのGoogle(グーグル)も顔認証では痛い失敗がありますし、人間の肌の色に関しては人工知能も苦戦中。また、ポルノと芸術・報道の線引きも難しいもの。昨年、Facebookがピューリッツァー賞を受賞した写真(ヴェトナム戦争でナパーム弾の攻撃から裸で逃げる少女を写したあの有名な作品)を児童ポルノ画像と誤り、削除してしまったこともありました。



真にバンすべきポルノ画像(児童ポルノ含む)を見つけるには、人工知能が画像内から裸の人間を見つけること、裸でいる状況を理解せねばならず、かなり難しい挑戦なのです。







Image: Farid Sani / Shutterstock.com

Source: The Telegraph



Melanie Ehrenkranz - Gizmodo US[原文]

(そうこ)



この記事へのコメント