TONE e20には、カメラにポルノ画像などを識別できる人工知能(AI)が搭載される。子どもが「裸の自画撮り」をしようとすると、「不適切な内容のため撮影できません」というメッセージが表示され、事前に撮影被害を防止し、画像や動画の保存もできなくなる。さらに、そうしたことが行われた場合に保護者へ通知する機能も備えている。
また、子どもの夜間のスマホ利用や有害サイトへのアクセスを制限する機能を持ち、アプリそのもの設定ではなく、LINEアプリ内で不特定多数と会話ができる「オープンチャット」だけを無効化するということも可能だという。
日本の警察庁によると、 2018年に児童ポルノの被害にあった18歳未満の子どもは約1 200人にのぼり、その4割が「自画撮り」の被害だったという。
関連記事