数週間前、私の友人が上司からメールを受け取った:
「こんにちは、マット。今会議中なので電話では話せませんが、メールが届いたら教えてください。ありがとう。
明らかにフィッシュである。奇妙なスペースの問題があること、テキストに署名するのは奇妙であること、上司がすぐにマットと話す必要があり、電話でないのは珍しいこと、などだ。
このフィッシュは粗悪なものだったが、それでも電子メールで送られる多くの詐欺よりはましだ。フィッシャーはマットの名前、電話番号、勤務先を知っていたのだから。フィッシャーはマットの名前、電話番号、勤務先を知っていたのだ。詐欺師はこれらの事実を利用して、より信用できる誘い文句を作り、誰かにリンクをクリックさせたり、ファイルをダウンロードさせたり、機密情報を渡したりすることができる。
フィッシング サイバーセキュリティ侵害の原因の上位を占めている。.それは、脅威行為者が古い詐欺を懐かしんでいるからではない。
厄介なことに、ChatGPTやその他のボットの登場によって、より賢く、よりどこにでも存在し、より効果的なフィッシングのおびき寄せが可能になるかもしれない。
先月から、ChatGPTがニュースになっている: 先生方 が心配している、 ウィル・アイ・アム ダボス会議ではそれを参照し、この技術をどのように応用するかについてのアドバイスもある。 オンラインデート.
ChatGPTは「新しい最先端のAIチャットボット」です。 ニューヨーク・タイムズ ジャーナリストは、"簡単に言えば、これまで一般に公開された中で最高の人工知能チャットボット "と呼んでいる。OpenAIによって開発され、人間のようなテキストを生成する能力を持つ。
このツールには多くの機能がある。 クーキー しかし、一部のサイバーセキュリティ専門家は、ChatGPTが脅威行為者に何をさせるかを懸念している。CyberArkは、このボットが「新たな脅威」を生み出したと報告している。 ポリモーフィックマルウェア."
また、自然言語機能を利用して、より説得力のあるフィッシング・ルアーを作成するという、より粗悪だが、それでも効果的な利用法について懸念している者もいる。
人間のライターとチャットボットは、それぞれが独自の強みを発揮するため、効果的なフィッシング・ルアーを作るために組み合わせることができる。
人間のライターはソーシャル・エンジニアリングを理解し、意図するターゲットに魅力的で説得力のあるメッセージを作る方法を知っている。彼らはまた、受信者にメッセージをより説得力のあるものにするための文脈や文化的な言及を理解することができる。
一方、言語モデルなどのチャットボットは、人間の言葉を理解し生成するため、実際の組織のスタイルやトーンを模倣することができる。また、パーソナライズされたメッセージを大規模に生成できるため、受信者を騙す可能性が高まる。
人間のライターがターゲットにアピールするフィッシング・メッセージを作成し、チャットボットがそれを大規模に生成して各受信者にパーソナライズする。これにより、フィッシング・メッセージの説得力が増し、成功の可能性が高まる。
私たちは、このような脅威行為者とボットの組み合わせが現実的な問題になる可能性があると考えていますが、それに対処するためのアイデアもいくつか持っています。 詳細はお問い合わせください.
参入障壁を低くするものはすべて、重大な脅威となりうる。やがて、脅威行為者はボットにパスワードを活用させたり、データ侵害から電子メールを標的にしたりすることを教えるようになるかもしれない。
「ChatGPTはオフラインのサービスですが、私が心配しているのは、インターネットアクセス、自動化、AIを組み合わせて、持続的な高度な攻撃を作り出すことです」とRSA CISOのロブ・ヒューズは言う。
"私たちは、いかにしつこいかを見てきた。 そくばくこうげき とヒューズは続けた。「チャットボットを使えば、もはやメッセージを作成するスパマーさえ必要ない。インターネットデータに精通し、リンクをクリックするまでメッセージを送り続ける』というスクリプトを書くことができる。サインオフせず、あきらめず、何百人ものユーザーに同時に働きかけるボットに操作を委ねることで、分散型のスピアフィッシング・ツールを簡単に使用できるようになり、フィッシング攻撃の本質が大きく変わる可能性がある」。
チャットボット、 ディープフェイク電話詐欺, あるいは ボットネット犯罪者がオーディオファイルを使おうが、Eメールを使おうが、その他の媒体を使おうが、そのフォーマットや背後にあるツールはあまり重要ではない。
重要なのは、人間の犯罪者が脅威を生み出すよりも早く、そしてサイバーセキュリティ担当者が対応するよりも早く、新たな、そして次第に賢くなる脅威を生み出し、それらの脅威を拡散させるかもしれないAIツールが開発されつつあるということだ。
ChatGPTが徐々に良いジョークやタームペーパーを書けるようになるのと同じ基本原理で、セキュリティ・システムも不審な行動を認識して対応できるように訓練できる。
RSAのようなリスクエンジン® Risk AI は、データ収集、デバイス照合、異常検知、行動分析を使用して、アクセス試行をチェックすることができます。リスクAIは、誰がリソースを要求しているのか、いつ要求しているのか、どのデバイスを使用しているのかなど、アクセス要求のコンテキストを調べ、リアルタイムでリスクを判断し対応する。
最終的にこれらの機能は、セキュリティ・チームがより多くの、より良い情報に基づいた、よりスマートで、より優れたセキュリティ上の意思決定を行うことを支援する。
組織にとってサイバーセキュリティの脅威となる可能性があるのは、AIの悪意のある利用だけではありません。ロボットによるプロセス自動化(RPA)を含むAIの意図的な企業利用は、個々の人間が追いつくよりもはるかに多くの意思決定をはるかに速く行うことができます。
同様に、マルチクラウド環境と不十分なID管理というパーフェクト・ストームは、クラウドセキュリティの障害を拡大し、組織をより多くのリスクにさらすことになる。 75%のクラウドセキュリティ障害 2023年までに
ここでもまた、組織は問題に合わせて拡張できるソリューションを必要としている: RSA® ガバナンスとライフサイクル このソリューションでは、適切な権限を持つユーザーを自動的にオンボードし、加入者と離脱者のポリシーを実施し、プロビジョニング、モニタリング、およびレポーティングを自動化することができます。
フィッシングするようにプログラムされた常時稼働のボット、誰も見ていないところで実行されるRPAスクリプト、ライオン、トラ、クマ:常に別の脅威が存在する。
「サイバーセキュリティ・チームは、次の脅威が何であるか、どこからやってくるかを常に予測することはできません。
「見出しに注目してはいけない。ユーザーを教育すること、多要素認証を使うこと、ゼロトラストを目指すこと。これらは、現在わかっている脅威から身を守り、明日やってくる脅威から身を守るための最善の方法だ。
###