https://sputniknews.jp/20230409/ai-15608864.html
AIは個人情報を盗む能力がある=専門家が警鐘
AIは個人情報を盗む能力がある=専門家が警鐘
Sputnik 日本
ハッカーらが人工知能(AI)を悪用し、個人情報や企業情報を盗んだり、セキュリティシステムをかいくぐることができるようになってきている。ロシア通信大手「ビーライン」でAI開発の責任者を務めるコンスタンティン・ロマノフ氏はスプートニクからの取材に対し、企業にはセキュリティ監査が必要不可欠になってきていると指摘した。 2023年4月9日, Sputnik 日本
2023-04-09T06:27+0900
2023-04-09T06:27+0900
2023-04-09T06:27+0900
it・科学
ロシア
人工知能
コンピューター
サイバー攻撃
社会
https://cdn1.img.sputniknews.jp/img/426/18/4261855_0:14:3072:1742_1920x0_80_0_0_bd33de61a83ec57cfbf68f27287dac42.jpg.webp
ロマノフ氏によると、AIは大量のデータの中から、機密情報などを抽出することができる。漏洩したデータは、個人の預金やID情報の盗難、スパイ行為といった様々な違法行為に悪用される恐れがある。また、企業にとっては顧客や取引先の信頼を失うことにもつながりかねない。ロマノフ氏は「自社の業務にAIを導入した企業は、データ漏洩を防ぐために情報セキュリティ監査を受けるべきだ」と強調する。加えて、ロマノフ氏はAIを使ったサービスが、ユーザーのデータを収集したことでユーザーの不安を招いたこれまでの事例にも言及。例えば、2019年の写真加工アプリ「FaceApp」をめぐるスキャンダルでは、会社のサーバーに加工された写真のほか、IPアドレスや端末識別情報、個人情報といった顧客情報が保存されていたことが判明した。またその年には、同じくAIを使用している写真加工サービス「グーグルフォト」でも、誤って数千人のユーザーの写真がグーグル社のサーバーに送られていたことがわかっている。この結果、写真やデータがマーケティングやスパイ行為に使われる危険性が指摘され、大きな問題となった。スプートニクはこれまでに、サイバー犯罪者らがAI「ChatGPT」をフィッシング詐欺用のメール作成に利用し、コストを96パーセント削減したことを取り上げた。関連ニュース
https://sputniknews.jp/20230406/ai-15566035.html
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
スプートニク 通信
https://cdn1.img.sputniknews.jp/img/07e6/07/14/12088987_0:0:401:400_100x100_80_0_0_ba2909d8856709cefe86707e3ed3e380.jpg.webp
スプートニク 通信
https://cdn1.img.sputniknews.jp/img/07e6/07/14/12088987_0:0:401:400_100x100_80_0_0_ba2909d8856709cefe86707e3ed3e380.jpg.webp
ニュース
jp_JP
Sputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.sputniknews.jp/img/426/18/4261855_0:0:2732:2048_1920x0_80_0_0_ecb574f287be46e9a99a77fa6c179554.jpg.webpSputnik 日本
feedback.jp@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
スプートニク 通信
https://cdn1.img.sputniknews.jp/img/07e6/07/14/12088987_0:0:401:400_100x100_80_0_0_ba2909d8856709cefe86707e3ed3e380.jpg.webp
ロシア, 人工知能, コンピューター, サイバー攻撃, 社会
ロシア, 人工知能, コンピューター, サイバー攻撃, 社会
AIは個人情報を盗む能力がある=専門家が警鐘
ハッカーらが人工知能(AI)を悪用し、個人情報や企業情報を盗んだり、セキュリティシステムをかいくぐることができるようになってきている。ロシア通信大手「ビーライン」でAI開発の責任者を務めるコンスタンティン・ロマノフ氏はスプートニクからの取材に対し、企業にはセキュリティ監査が必要不可欠になってきていると指摘した。
ロマノフ氏によると、AIは大量のデータの中から、機密情報などを抽出することができる。漏洩したデータは、個人の預金やID情報の盗難、スパイ行為といった様々な違法行為に悪用される恐れがある。また、企業にとっては顧客や取引先の信頼を失うことにもつながりかねない。ロマノフ氏は「自社の業務にAIを導入した企業は、データ漏洩を防ぐために情報セキュリティ監査を受けるべきだ」と強調する。
加えて、ロマノフ氏はAIを使ったサービスが、ユーザーのデータを収集したことでユーザーの不安を招いたこれまでの事例にも言及。例えば、2019年の写真加工アプリ「FaceApp」をめぐるスキャンダルでは、会社のサーバーに加工された写真のほか、IPアドレスや端末識別情報、個人情報といった顧客情報が保存されていたことが判明した。またその年には、同じくAIを使用している写真加工サービス「グーグルフォト」でも、誤って数千人のユーザーの写真がグーグル社のサーバーに送られていたことがわかっている。この結果、写真やデータがマーケティングやスパイ行為に使われる危険性が指摘され、大きな問題となった。
スプートニクはこれまでに、サイバー犯罪者らがAI「ChatGPT」をフィッシング詐欺用のメール作成に利用し、
コストを96パーセント削減したことを取り上げた。