Loncat ke konten
Oil for the information age

It’s been remarked that data is the oil of the information age. And if that’s the case, then it’s essential for organizations to recall that their information is valuable.

With more solutions deploying AI and ingesting users’ data, hybrid work, and more users, devices, entitlements, and environments than ever, there’s are new and complex risks to organizations’ data.

Let’s review some of those new risks, including how digital assistants and AI models can introduce new security risks, why identity governance and  administration (IGA) solutions form the basis for data protection, and suggest some best practices organizations can take to keep their data secure.

Kendalikan data Anda

Taking control of data is much easier said than done. Every device, user, machine account, and resource creates, transmits, and processes data. That’s why organizations need an IGA program, which provides organizations with the capabilities they need to:

  1. Menjaga visibilitas dan kontrol atas semua data organisasi: Anda tidak dapat mengontrol apa yang tidak Anda lihat atau pahami. IGA membantu memastikan akun yang tepat memiliki akses ke data yang tepat dengan menerapkan tinjauan akses secara teratur dan memberdayakan pemilik data untuk menyetujui atau mencabut izin sesuai kebutuhan. IGA juga memberi admin Anda visibilitas ke dalam apa yang saat ini dapat diakses oleh pengguna
  2. Memastikan kepatuhan yang berkelanjutan: Salah satu manfaat IGA dan visibilitas ke dalam data organisasi Anda? Mendemonstrasikan kontrol tersebut kepada regulator. IGA dapat mengotomatiskan alur kerja, pelaporan audit, dan sertifikasi akses untuk menunjukkan kepatuhan terhadap GDPR, GLB, SOX, PCI-DSS, HIPAA, ARPA, dan peraturan utama lainnya.
  3. Melindungi data sensitif: Solusi IGA dapat memberikan wawasan yang dapat ditindaklanjuti kepada tim keamanan Anda mengenai akses data untuk mengidentifikasi dan memitigasi akses yang tidak sah, membantu melindungi data pelanggan dan kekayaan intelektual.
AI generatif menciptakan risiko privasi data baru

Generative AI models and Large Language Models (LLMs) introduce new risks that organizations need to account for. Instances of Microsoft Copilot, DeepSeek, Claude, and ChatGPT rely on user inputs to train their models. Broadly speaking, that means that whatever a user pastes into a prompt becomes part of the model. Moreover, if your organization uses an AI assistant, then the tool may have wider access to organizational data, and it may not have safeguards limiting when, if, or how it should use that data.

Hal ini jelas dapat menimbulkan risiko yang signifikan. Lihatlah layanan Azure Health Bot dari Microsoft, yang "memungkinkan pergerakan lateral di seluruh jaringan, dan dengan demikian mengakses data pasien yang sensitif," per TechRadar. Laporan pada April 2024 mencatat bahwa 20% perusahaan di Inggris "memiliki data perusahaan yang berpotensi sensitif yang terekspos melalui penggunaan AI generatif (GenAI) oleh karyawan," per Majalah Infosecurity. Cisco memperkirakan bahwa seperempat perusahaan telah melarang AI generatif karena kekhawatiran ini.

Kekhawatiran ini cukup beralasan. LLM membutuhkan beragam data pelanggan untuk melatih model mereka, dan pengguna telah dilatih untuk mempercayai "kotak ajaib" dari pencarian Google dan mengetikkan apa pun yang mereka cari tanpa rasa takut. Hal ini dapat membahayakan informasi keuangan, IP, PII, atau data sensitif lainnya.

Bukan hanya input pengguna yang berisiko. Jika LLM sedang dilatih dengan data Anda, maka pihak ketiga mungkin dapat menanyakannya untuk menemukan informasi yang tidak Anda inginkan untuk dipublikasikan. Demikian juga, ada risiko bahwa asisten itu sendiri dapat menyiarkan informasi pada saluran keluar apa pun yang dapat dikomunikasikannya.

Praktik terbaik untuk menjaga keamanan LLM

Jika organisasi Anda akan memasang asisten digital, ada beberapa praktik terbaik yang perlu Anda lakukan untuk menjaganya dan tim Anda tetap aman.

Pertama, mintalah tim kepemimpinan Anda menjelaskan apa saja risikonya. Jelaskan jenis informasi apa yang dapat dimasukkan oleh pengguna dan apa yang tidak. Di RSA, kami telah menjelaskan kepada tim kami bahwa mereka bisa memasukkan informasi yang ditujukan untuk konsumsi publik. Hal lainnya tidak boleh menjadi bagian dari pertanyaan pengguna.

Kedua, pastikan Anda mengaktifkan kontrol yang tepat. Hal itu mungkin tidak selalu menjadi pengaturan default asisten: Jika dikonfigurasi dengan tidak benar, asisten AI dapat memiliki akses ke semua hal di seluruh organisasi. Pastikan chatbot Anda mengetahui informasi apa yang dapat ditanyakan dan informasi apa yang dapat dikembalikan. Organisasi perlu memisahkan data dengan tepat, sehingga Pengguna X tidak menerima tanggapan berdasarkan file Pengguna Y; jika tidak, Anda berisiko membuat karyawan Anda membaca email satu sama lain dan mengakses informasi yang tidak diinginkan.

Anda juga perlu mengetahui apa saja yang dapat diakses oleh sistem Anda, kapan sistem memiliki akses tersebut, dan kapan sistem memberikan rekomendasi kepada pengguna. Pastikan untuk menerapkan perangkat aturan tersebut di semua alat AI yang Anda gunakan (ada beberapa versi Copilot Microsoft). Dan alat-alat tersebut harus sesuai dengan postur keamanan yang selaras.

Terakhir, tanyakan kepada vendor Anda apa yang terjadi dengan pencari, data, dan tanggapan Anda. Apakah vendor menyimpannya? Jika ya, untuk berapa lama? Apakah contoh lain dari solusi tersebut dilatih dengan model Anda, atau apakah semuanya tetap menjadi milik Anda?

AI yang tepat untuk keamanan siber

Sebagian besar saya telah membahas risiko yang ditimbulkan oleh LLM dan AI generatif terhadap postur keamanan siber organisasi. Model-model AI tersebut cenderung menjadi berita utama dan mewakili beberapa risiko terbesar, jika hanya karena lebih banyak pengguna yang memasukkan perintah ke ChatGPT, Copilot, dll.

Keamanan siber juga bisa mendapatkan manfaat dari AI-tetapi tim Anda perlu menggunakan model yang tepat. Secara garis besar, LLM dan AI generatif tidak tepat untuk operasi keamanan saat ini. Mereka adalah kotak hitam yang menghasilkan hasil yang tidak selalu dapat divalidasi oleh operator manusia, dan keluarannya tidak selalu membantu.

Model-model tersebut didasarkan pada model non-deterministik (saya memasukkan nilai X, saya tidak tahu apa yang akan keluar). Model deterministik (saya memasukkan nilai X, saya tahu apa hasilnya dan bagaimana solusi akan sampai pada keluaran itu) bisa sangat berguna untuk keamanan siber.

Kami telah menggunakan RSA® Risiko AI selama beberapa dekade untuk memberikan wawasan waktu nyata tentang permintaan otentikasi. Risk AI adalah model pembelajaran mesin deterministik berbasis risiko yang menilai alamat IP pengguna dan sinyal jaringan, analisis perilaku, geolokasi, sinyal berbasis waktu, sinyal aplikasi, sinyal terkait perangkat, dan banyak lagi untuk mengevaluasi risiko. Jika sinyal dan perilaku tersebut mencerminkan perilaku khas pengguna relatif terhadap diri mereka sendiri dan seluruh organisasi, maka mereka dianggap berisiko rendah dan dapat mengautentikasi menggunakan metode standar. Jika perilaku tersebut menyimpang secara signifikan, maka sistem akan mengotomatiskan tantangan autentikasi tingkat lanjut dan dapat menandainya ke tim keamanan.

Yang penting, RSA Risk AI tidak mengumpulkan informasi organisasi, dan kami tidak menggunakan informasi apa pun dari penerapan yang diberikan untuk melatih iterasi di masa mendatang. Kami melakukan hash dan tokenisasi terhadap semua data Risk AI. Setiap contoh Risk AI diterapkan untuk setiap organisasi pelanggan ke organisasi, dan penerapan tersebut disesuaikan dengan data mereka dan data mereka saja.

Data Anda sangat berharga. Jaga keamanannya

Jangan biarkan praktik terbaik teknis atau poin-poin tentang arsitektur keamanan mengaburkan poin utama: data Anda sangat berharga. Sebaiknya organisasi menginvestasikan waktu dan sumber daya untuk berinvestasi pada alat, proses, dan prosedur yang dapat menjaganya tetap aman.

Jika Anda memiliki pertanyaan tentang cara melakukannya, kami siap membantu Anda bantuan.

Minta Demo

Dapatkan Demo