Googleが児童ポルノを自動で集めるAIを開発。さくらたんのエロ画像キボンヌ

1: 名無しさん@涙目です。(空) [US] 2018/09/04(火) 18:08:52.65 ID:QrRMSdEM0● BE:842343564-2BP(2000)

sssp://img.5ch.net/ico/nida.gif
Google、児童ポルノ画像検出特化のAIツールキットをリリース。人力判別の精神的ストレスを大幅軽減
https://headlines.yahoo.co.jp/hl?a=20180904-00091408-engadgetj-sci

これまで、多数の組織がインターネットに潜む性的な児童虐待画像(CSAM, child sexual abuse material)の発見と撲滅に取り組んできましたが、こうした画像を大量に審査するのは技術的に難しく、精神的にも辛いものです。Googleは、こうした作業を肩代わりできるようAIを鍛えた「Content Safety API」を開発しました。

このツールキットに含まれるディープニューラルネットワークは膨大な素材をスキャンし、CSAMである疑いがあるものにランク付けを施し、人力チェックへ回す必要があるものを選び出します。
ツールキットの導入は、人力での仕分けに比べて7倍の素材チェックを可能としつつ、作業に携わる人員の削減を可能とします。
これまでにも、画像チェック作業の自動化に向けた取り組みがなかったわけではありません。ただ、自動化されたシステムでは既知のCSAM画像とのハッシュ値の比較、つまりすでに見つかっている画像のコピーを検出できるだけに過ぎませんでした。

これに対して、AIによる検出方法ではまったく未発見の(新しい)素材にもフラグを立てることができ、それは当局の犯罪者逮捕と新たな虐待の発生防止の手助けにもなります。

Content Safety APIは企業パートナーやNGO団体などに無料で提供されます。このAPIの導入がインターネット上の悪質なCSAM画像を劇的に減らすことができるかはまだわからないものの、少なくともこの作業に当たる組織が、これまでよりも少ない人員で同じ仕事量をこなせるようになることは間違いありません。

人間の脳の働きを関数モデル化したニューラルネットワークを多層化し、ディープラーニングで鍛えたAIシステムは、このような画像認識や迷惑メールフィルタリング、音声認識など単純作業の繰り返しでありながら、若干の”感性”を必要とする処理の分野に親和性があります。
「それが大量に普及すれば人間の仕事が奪われてしまう」と考えるのではなく、今回のようにより良い世の中にするための方向で、積極的な活用が広がってほしいものです。

3: 名無しさん@涙目です。(千葉県) [US] 2018/09/04(火) 18:09:43.97 ID:NSuZkLdK0
グーグルを買収するしかないな

5: 名無しさん@涙目です。(大阪府) [ニダ] 2018/09/04(火) 18:10:21.96 ID:YIleNd0q0
ロリコン雇えばいいだけなの無駄なもん開発すんな死ね

6: 名無しさん@涙目です。(石川県) [US] 2018/09/04(火) 18:10:43.75 ID:Xbukzc+T0
あいつの仕事奪うなよ

7: 名無しさん@涙目です。(新疆ウイグル自治区) [ニダ] 2018/09/04(火) 18:10:47.65 ID:SOyULA0E0
グーグルが逮捕されるです?

9: 名無しさん@涙目です。(東京都) [US] 2018/09/04(火) 18:11:42.87 ID:eo29BgPW0
AIは将棋や囲碁の世界では人間に勝ったようだが、
果たしてロリ検索の世界で俺達ν速民に勝てるかな?

11: 名無しさん@涙目です。(dion軍) [US] 2018/09/04(火) 18:12:17.80 ID:zOEDDvdV0
ロータリーエンジン

17: 名無しさん@涙目です。(大阪府) [US] 2018/09/04(火) 18:17:59.52 ID:rMndfC8f0
集めてどうすんだよ通報するぞ

18: 名無しさん@涙目です。(大阪府) [ヌコ] 2018/09/04(火) 18:23:11.01 ID:Ei+MW4k30

その検出結果だけ流してくんねぇかな

あくまで学術やぞ

22: 名無しさん@涙目です。(京都府) [US] 2018/09/04(火) 18:27:21.15 ID:UN1lQpXJ0
写真用サーバとして公開してくれないかな

23: 名無しさん@涙目です。(家) [US] 2018/09/04(火) 18:27:23.75 ID:eXkSEifW0
ちゃんとポルノ画像を認識できるようになったのか?
砂漠の画像もポルノだと誤認識するって前にネットで見たぞ

87: 名無しさん@涙目です。(静岡県) [US] 2018/09/04(火) 20:15:35.48 ID:1WjseZtI0
>>23
ロリ画像の可能性ありと判断したら人間に回すんだろ

24: 名無しさん@涙目です。(庭) [US] 2018/09/04(火) 18:27:29.86 ID:RIUR84fg0
no title

26: 名無しさん@涙目です。(茸) [US] 2018/09/04(火) 18:29:45.18 ID:VNrE9niN0
遅すぎだろ
俺なんか20年前から集めてるし

29: 名無しさん@涙目です。(dion軍) [GB] 2018/09/04(火) 18:32:00.64 ID:OhEdubFk0
>>26
AIの学習用にGoogleに提供してやれよ
そもそもネットに素材がないから困ってるやろ

54: 名無しさん@涙目です。(茸) [JP] 2018/09/04(火) 18:43:01.61 ID:M/Dd3MfU0
>>26
おまわりさんこいつですがここに貼ったら逮捕しないで下さい

35: 名無しさん@涙目です。(チベット自治区) [US] 2018/09/04(火) 18:34:21.06 ID:4Omsu9vJ0
まぁ正直そんな画像これから集めるより
新しいフォルダ1~内の画像を自動で仕分けしてくれるAIのほうが欲しい

36: 【B:87 W:93 H:92 (C cup)】 (東京都) [ニダ] 2018/09/04(火) 18:34:47.03 ID:KMkFOf0u0

no title

no title

no title

no title

no title

63: 名無しさん@涙目です。(家) [JP] 2018/09/04(火) 18:53:00.01 ID:2yh7MkKM0
>>36
もう少しなんかありそう

60: 名無しさん@涙目です。(大阪府) [ニダ] 2018/09/04(火) 18:50:22.44 ID:OlAv0lHR0
写真と絵の区別もつかないゴミAIってオチだったりしてw
そんなもんなら別に大金かけんでも10年前からとっくにあるが

86: 名無しさん@涙目です。(宮城県) [CN] 2018/09/04(火) 20:13:19.06 ID:Gmx4yhOa0
これ使って収集サーバー立てればいいんだよね?

88: 名無しさん@涙目です。(千葉県) [JP] 2018/09/04(火) 20:17:47.00 ID:rtmhXlbm0
公安はGoogleを徹底的にマークだ

129: 名無しさん@涙目です。(dion軍) [ニダ] 2018/09/04(火) 23:15:09.46 ID:3br5P4ov0
AIにも変態がいるのか!

41: 名無しさん@涙目です。(愛知県) [US] 2018/09/04(火) 18:37:38.62 ID:UB9IWGiz0
子供達の為にボランティアで協力します

引用元

Googleが児童ポルノを自動で集めるAIを開発。さくらたんのエロ画像キボンヌ

管理人からひと言

これに反応するのはロリコン

スポンサーリンク
スポンサーリンク
スポンサーリンク

シェアする

フォローする