データは情報化時代の石油だと言われている。もしそうだとすれば データ・プライバシー週間 は、あなたの情報が貴重なものであることを再認識させる良い機会である。この国際的なイベントは、自分のデータを保護し、プライバシー設定を管理し、誰が(そして何が)そのデータを受け取るのかについて、より多くの情報に基づいた決定を下す方法について、個人に助言するものである。
データ・プライバシー週間は、組織がデータ保護の実践を検討する良い機会でもある。AIを導入し、ユーザーのデータを取り込むソリューションが増え、ハイブリッドワークや、これまで以上に多くのユーザー、デバイス、権限、環境が存在する中、組織のデータには新たな複雑なリスクが存在する。
データ・プライバシー・ウィークでは、こうした新たなリスクのいくつかを検証する。新しいデジタルアシスタントやAIモデルがどのように新たなセキュリティリスクをもたらすか、なぜIDガバナンスと管理(IGA)ソリューションがデータ保護の基礎を形成するのか、そしてデータを安全に保つために組織が取るべきベストプラクティスを提案する。
今年のデータ・プライバシー・ウィークのテーマは「データを管理しよう」だ。それは良い目標だが、たいていのことがそうであるように、言うは易く行うは難しである。すべてのデバイス、ユーザー、マシンアカウント、リソースがデータを作成し、送信し、処理する。だからこそ、組織にはIGAプログラムが必要なのです。IGAプログラムは、組織に必要な機能を提供します:
- すべての組織データの可視性と制御の維持:見ていないもの、理解していないものをコントロールすることはできません。IGAは、定期的なアクセスレビューを実施し、データ所有者が必要に応じてアクセス許可を承認または取り消せるようにすることで、適切なアカウントが適切なデータにアクセスできるようにします。また、現在どのユーザーがアクセスできるかを管理者が把握できるようにします。
- 継続的なコンプライアンスの確保:IGAと組織のデータを可視化することのメリットのひとつは?規制当局に対して管理体制を証明することができます。IGAは、ワークフロー、監査レポート、アクセス認証を自動化し、GDPR、GLB、SOX、PCI-DSS、HIPAA、ARPA、その他の重要な規制への準拠を証明することができます。
- 機密データの保護:IGAソリューションは、データアクセスに関する実用的な洞察をセキュリティチームに提供し、不正アクセスを特定して緩和することで、顧客データと知的財産の保護を支援します。
生成的AIモデルと大規模言語モデル(LLM)は、組織が考慮すべき新たなリスクをもたらす。Microsoft Copilot、DeepSeek、ChatGPTのインスタンスは、モデルの学習にユーザー入力を利用している。大まかに言えば、ユーザーがプロンプトに貼り付けたものはすべてモデルの一部になるということだ。さらに、組織がAIアシスタントを使用する場合、そのツールは組織のデータに広くアクセスできる可能性があり、そのデータをいつ、いつ、どのように使用するかを制限するセーフガードを持っていない可能性がある。
これは明らかに重大なリスクをもたらす可能性がある。マイクロソフトのAzure Health Botサービスを見てみよう。 テックレーダー.2024年4月の報告書では、英国企業の20%が「従業員がジェネレーティブAI(GenAI)を使用することで、潜在的にセンシティブな企業データが流出した」と指摘している。 インフォセキュリティー・マガジン. シスコ このような懸念から、4分の1の企業がジェネレーティブAIを禁止していると推定される。
こうした懸念は十分に根拠のあるものだ。LLMはモデルを訓練するために様々な顧客データを必要としており、ユーザーはグーグル検索の「魔法の箱」を信頼し、恐れることなく探しているものを何でも入力するように訓練されている。そのため、金融情報、IP、PII、その他の機密データが危険にさらされる可能性がある。
危険なのはユーザーの入力だけではない。もしLLMがあなたのデータで訓練されているのなら、第三者はあなたが公開されたくない情報を見つけるために、LLMに問い合わせることができるかもしれない。同様に、アシスタント自身が、通信可能なあらゆるアウトバウンド・チャンネルに情報を流すリスクもある。
もしあなたの組織がデジタル・アシスタントを導入するのであれば、デジタル・アシスタントとあなたのチームの安全を守るために必要なベスト・プラクティスがいくつかある。
まず、リーダーシップ・チームにどのようなリスクがあるかを説明させる。ユーザが入力できる情報と入力できない情報の種類を明確にします。RSAでは、一般公開を目的とした情報は入力できるとチームに説明しています。それ以外のものは、ユーザ・クエリに含めるべきではありません。
第二に、正しいコントロールをオンにしてください。これらは必ずしもアシスタントのデフォルト設定とは限らない:設定を誤ると、AIアシスタントは組織全体のすべてにアクセスできるようになる可能性があります。チャットボットがどの情報を照会し、どの情報を返すことができるかを確認してください。ユーザーXがユーザーYのファイルに基づいて応答を受け取らないように、組織はデータを適切にサイロ化する必要がある。そうしないと、従業員がお互いのメールを読んで、意図しない情報にアクセスする危険性がある。
また、システムが何にアクセスできるのか、いつアクセスできるのか、いつユーザーに推奨を行うのかを知っておく必要がある。導入したすべてのAIツール(マイクロソフトのCopilotには複数のバージョンがある)で、これらのルールセットを確実に適用すること。また、これらのツールは、整合性のあるセキュリティ態勢の下で適合させる必要がある。
最後に、検索者、データ、回答がどうなるかをベンダーに尋ねてください。ベンダーはそれを保管していますか?もしそうなら、いつまでですか?そのソリューションの他のインスタンスは、あなたのモデルでトレーニングされるのですか?
私は主に、LLMとジェネレーティブAIが組織のサイバーセキュリティ態勢にもたらすリスクについて論じてきた。より多くのユーザーがChatGPTやCopilotなどにプロンプトを入力するようになったからに他ならない。
サイバーセキュリティもAIの恩恵を受けることができるが、チームは適切なモデルを使用する必要がある。大まかに言って、LLMやジェネレーティブAIは現在のセキュリティ・オペレーションには適していません。これらは、人間のオペレーターが常に検証できるとは限らない結果を生み出すブラックボックスであり、その出力は常に役に立つとは限らない。
これらのモデルは非決定論的モデル(Xの値を入れると、何が出てくるかわからない)に基づいている。決定論的モデル(Xの値を入れれば、結果がどうなるか、どのように解決すればその出力に到達するかがわかる)は、サイバーセキュリティにとって非常に有用である。
我々はこれまで RSA® Risk AI リスクAIは、リスクベースの決定論的機械学習モデルです。リスクAIは、リスクベースの決定論的機械学習モデルであり、ユーザーのIPアドレスやネットワーク信号、行動分析、ジオロケーション、時間ベースの信号、アプリケーション信号、デバイス関連の信号などを評価し、リスクを評価する。これらのシグナルや行動が、そのユーザー自身や組織の他の部分と比較して、そのユーザーの典型的な行動を反映している場合、そのユーザーはリスクが低いと判断され、標準的な方法を使用して認証することができます。これらの行動が著しく逸脱している場合、システムはステップアップ認証チャレンジを自動化し、セキュリティ・チームにフラグを立てることができる。
重要なことは、RSA Risk AIは組織の情報を収集しないことです。また、特定の展開からの情報を将来の反復トレーニングに使用することもありません。すべてのRisk AIデータをハッシュ化し、トークン化します。すべてのRisk AIインスタンスは各顧客の組織ごとに展開され、それらの展開は顧客のデータと顧客のデータのみに基づいて微調整されます。
技術的なベストプラクティスやセキュリティ・アーキテクチャに関するポイントに惑わされてはならない。データは貴重なものであり、それを安全に保つためのツール、プロセス、手順に投資することは、組織の時間とリソースに十分見合うものである。
その方法についてご質問があれば、私たちがお答えします。 ヘルプ.