AIを活用した「犯罪予測・治安対策」最前線

日本でもAIに犯罪予測システムが稼働へ

2018年1月、神奈川県警が人工知能(AI)を使って事件・事故の発生を予測する新システムの導入を検討していると全国紙が報じた。報道によれば、連続発生した事件の容疑者が同一かどうかを分析したり、容疑者の次の行動を予測したりするほか、事件事故が起きやすい時間帯と場所を確率で示すシステムの構築を目指すという。予測された時間帯や場所をパトロールの順路に組み込むなどして、治安向上や迅速な対応につなげるという。

具体的な導入法としては、大量のデータを基に自ら学習するディープラーニング(深層学習)を採用する。犯罪学や統計学の数式を学ばせ、過去に事件事故が起きた場所や時間、気象条件や地形などさまざまなデータを取り込む。昨今、犯罪でもたびたび利用されるSNSの書き込みもデータとして活用することも想定しているという。同県警は、2020年の東京オリンピック・パラリンピック開幕までの試験運用を目指す。実現すれば全国の警察で初の試みとなる。

日本ではようやく導入に向けて動き出したAIによる犯罪予測だが、各国ではすでに実用段階に入り、成果を出している国もある。AIとビッグデータによって事件・事故・災害被害を減らし、都市の安全を守ることは「パブリックセーフティ」と呼ばれ、世界じゅうで今、注目を集めている。

例えば、2017年8月、米・シカゴ市警察がサウスサイド地区で犯罪予測システムを導入し、「凶悪事件が激減した」という成果を発表した。ロイター通信によると、同年1~7月において、シカゴ全域で殺人事件が前年同期より3%増えるなか、この地域では発砲事件が39%、殺人事件が33%減ったというのだ。

<今回シカゴ市警で試験運用されているシステムは、ベンチャー企業Azavea社の犯罪予測システムHunchlab。1日内の時間や季節ごとの周期、天候や地域経済、過去の犯罪データなど様々な要因から犯罪の一定のパターンを見出すもの。サウスサイド警察本部の管理室では、コンピュータアルゴリズムがデジタルマップ上に、次に犯罪が発生しそうな地点を表示。この技術は同州の計3つの地区で運用され、発砲事件は15%~29%、殺人事件は9%~18%減少したとのこと>(「Engadget日本版」2017年8月11日付「米シカゴ市警、犯罪予測プログラム「Hunchlab」により凶悪事件を減少。過去データから「犯罪が発生しそうな地域」を巡回」より引用)

Hunchlabは、シカゴ市警より前からニューヨーク市警でも導入されている。同市警では、1990年代からIBM社による犯罪の削減及び防止を目的とした戦略管理システム「CompStat」を導入し、コンピュータによる犯罪情報の収集と解析、有効な戦術の展開、迅速な人員配置などを行ってきた。それに加えてHunchlabを導入することで、統計データだけでは読み取れない犯罪のパターン分析を強化しようという狙いがある。

容疑者の危険性を三段階に分類する試み

また、2017年5月にはイギリスのダラム市警が容疑者の拘束が必要か否かを決定するために犯罪リスク評価AI「Hart」を導入すると報じられた。容疑者の犯罪の可能性を「低」、「中間」、「高」の三段階に分類する、一種のリスク評価ツールだ。同市警は2008~2013年の間に収集した犯罪記録などのデータを基に、Hartを使って犯罪の重大性や容疑者の危険性を分析してきた。2013年に行われた最初のテストでは、低危険度な容疑者を予測する精度は98%、高危険度の容疑者を予測する精度は88%となったという。

Hartは、「拘束するか否か」のほかに、「容疑者の適正な拘禁期間」や「長期的な拘禁が必要な人物か否か」「適正な保釈金の算出」などさまざまな警察業務に関する決定を下すことも可能だ。しかし、業務効率を向上させるシステムとして注目される反面、データエラーなどにより、冤罪など人権侵害を招くことも懸念されている。

非営利メディア「ProPublica」が2017年に発表した調査報告書によると、Hartのようなリスク評価ツールには、重大な欠陥があることが明らかになった。 例えば、現在、欧米諸国を中心に普及し始めているリスク評価ツールは、黒人を「将来の犯罪者」として判断する傾向が高いという。一方、白人は低リスク、もしくは再犯リスクが低いと評価する傾向がある。つまりAIの判断は、人種差別に繫がる可能性があるのだ。

ダラム市警は「テスト期間中のHartの決定は、ただアドバイザーの役割にとどまるだろう。他の数千の事例をともに分析し、最終的な結論に到達することになる」と説明している。

通行人を瞬時に不審者かどうか判断

現在、AIを使った大規模な監視ネットワークの構築を進めている中国でも、「人権侵害」を懸念する声が上がっている。河南省では2018年2月から始まる春節(旧正月)の帰省ラッシュで混雑するターミナル駅の警備のため、AIによる顔認証システムと連動したメガネ型情報端末の利用を開始したのだ。

具体的には、グーグルが開発した「グーグル・グラス」に似たメガネ型端末を装着した警察官が駅を歩く人の顔を瞬時にスキャンして、画像データとして取り込む。全国民に発行されるIDカードの顔写真データや不審者をリスト化したデータベースと照合し、短時間で問題のある人物かどうかを判断するのだ。今回の試験運用で逃亡中の容疑者7人のほか、他人の身分証明書を不正に使用した26人が摘発され、成果を上げているのだ。

この新技術の導入で、テロを未然に防いだり、捜査の効率化を期待できる一方、重点的に監視される少数民族などの人権侵害につながるといった声も出始めている。日本でAIを使った取り締まりを検討する神奈川県警についても、同様の懸念が上がっており、本格的な導入に向けては議論の余地がありそうだ。

しかし一方で、前述したシカゴ市警においては、従来の捜査手法は人種差別を容認しているとして「体系的な欠点がある」と指摘された報告書が2017年に出されており、Hunchlabの導入によって、警察による人権侵害を減らす目的もあるのだ。果たして、犯罪捜査におけるAIの導入は、各国の治安を安定させる救世主となるのか、日本の動向とともに、引き続きウォッチしていきたい。