ChatGPT: چگونه هوش مصنوعی امنیت داده ها را تهدید می کند

ChatGPT تبعیض قائل نمی شود – مانند یک توله سگ مشتاق است که سعی می کند تمام خواسته های صاحبش را برآورده کند، همه اینها برای آن لذت کوچک (یا در مورد ChatGPT، یک کلیک کوچک “شست بالا”). ChatGPT، مدل زبان هوش مصنوعی که همه پاسخ‌ها را می‌داند، از همه راه‌های درست و غلط باعث ایجاد حس و حال شده است. بله، این ربات می‌تواند زندگی حرفه‌ای ما را غنی‌تر کند، بنابراین علیرغم نگرانی‌ها در مورد از دست دادن مشاغل احتمالی و تسلط بر جهان، همه درباره آن غوغا می‌کنند. شما، ما و متأسفانه مجرمان سایبری نیز.

مدل زبان نیت خوبی دارد – کمک به انسان! – که فوق العاده به نظر می رسد… نه فقط برای بچه های خوب، بلکه برای مجرمان سایبری نیز. ممکن است به طور تصادفی یا مخرب مورد سوء استفاده قرار گیرد و به یک تهدید بالقوه برای کسب و کار شما و داده های آن تبدیل شود.

در این مقاله، برخی از روش‌هایی را که ChatGPT برای کمک به کسب‌وکارها استفاده می‌کند، چگونگی تهدیدی برای امنیت داده‌ها، و نکاتی در مورد نحوه محافظت کسب‌وکارها از خود را بررسی می‌کنیم.

چگونه می توان از ChatGPT برای تجارت استفاده کرد؟

ChatGPT یک ابزار عالی برای بسیاری از موارد در عملیات روزمره تجاری، از پاسخ به ایمیل ها تا تجزیه و تحلیل و پردازش داده ها، و حتی کارهای بسیار پیچیده تر است. حتی می‌توانید از آن برای ایجاد یک ربات چت برای کسب‌وکارتان استفاده کنید یا از آن بخواهید تا بدون عرق کردن، داده‌های زیادی را برای شما سازماندهی کند.

صدای فریبنده؟ انجام برخی از این وظایف یک انسان ساعت طول می کشد، و یک ربات می تواند آن را در کمتر از یک دقیقه انجام دهد… آیا فریاد می زنید “ثبت نام کنید!” همانطور که شما این را می خوانید؟

اما در حالی که استفاده از یک ربات برای تجزیه و تحلیل آخرین اطلاعات مالی شرکت شما به نظر یک ایده عالی برای صرفه جویی در زمان است، ممکن است خیلی سریع نتیجه معکوس داشته باشد.

 

چرا ChatGPT می تواند تهدیدی برای امنیت داده ها باشد؟

ChatGPT سعی می کند نحوه عملکرد مغز انسان را شبیه سازی کند. اطلاعات را در مغز روبات خود جذب می کند و می تواند آن اطلاعات را در صورت نیاز به خاطر بیاورد و در تحلیل ها و تعاملات بعدی از آن استفاده کند. اما همانطور که می گویند، با قدرت زیاد، مسئولیت بزرگی به همراه دارد – ChatGPT حجم باورنکردنی اطلاعات را “می داند”.

چرا باید نگران بود؟

هشدار
محرمانه نگه داشتن اطلاعات حساس شما غیرممکن است
در حالی که هزاران درخواست وجود دارد که می توانید به ChatGPT بدهید، “داده های حساس من را محرمانه نگه دارید” یکی از آنها نیست.

ChatGPT یک مدل یادگیری عمیق است که به آن اجازه می دهد از مکالمات خود با کاربران یاد بگیرد. به عبارت دیگر، مکالمات شما بین شما دو نفر باقی نمی ماند. مهم نیست که ChatGPT چقدر با شخصیت به نظر می رسد، این فقط یک برنامه بی احساس و بی احساس است که هیچ توجهی به شما یا کسب و کارتان نمی کند.

این وظایف را در نظر بگیرید که شما یا بخش فناوری اطلاعات شما می‌توانید از ChatGPT برای کمک به آنها بخواهید:
  • به نوشتن یا یافتن یک اشکال در کد منبع کمک کنید.
  • از رونوشت جلسه هیئت مدیره یادداشت ایجاد کنید.
  • بهینه سازی یک توالی تست برای شناسایی آسیب پذیری های سیستم داخلی.
  • اطلاعات پرداخت مشتری را در یک صفحه گسترده مرتب کنید.

 

آیا می توانید تهدیدات را تشخیص دهید؟

 

اما صبر کنید، چیزهای بیشتری وجود دارد! ChatGPT نه تنها هر ورودی را که برای تجزیه و تحلیل آینده به آن می دهید به خاطر می آورد، بلکه کارمندان OpenAI می توانند به داده های چت های ChatGPT شما دسترسی داشته باشند و یک لایه اضافی از عامل انسانی را به کل وضعیت امنیت داده اضافه کنند. به یاد داشته باشید، عامل انسانی در 82 درصد از تمام موارد نقض امنیت داده در سال 2022 (بر اساس گزارش 2022 بررسی نقض داده های Verizon) دخیل است. و این قبل از تبدیل شدن ChatGPT به بخشی از زندگی روزمره ما بود.

و این هنوز همه چیز نیست – اگر مراقب نباشید و مثلاً از یک شبکه وای فای ناامن یا عمومی برای مکالمه با ChatGPT استفاده کنید، شخصی با نیت بد می تواند به طور بالقوه به چت شما دسترسی داشته باشد و ببیند چه داده هایی را به اشتراک می گذارید.

آن مثال ها در ابتدای این بخش؟ آنها از موقعیت‌های واقعی زندگی می‌آیند که می‌تواند به راحتی منجر به نقض داده‌های ناشی از ChatGPT شود (بیشتر آنها از تحقیقات در سامسونگ هستند!).

اتکای بیش از حد به هوش مصنوعی و ChatGPT می‌تواند منجر به نادیده گرفتن جنبه‌های مهم امنیت داده‌ها، مانند بررسی دستی و تأیید شود.

اقدامات کاهشی: کوتاه مدت، اجازه ندهید وعده ChatGPT برای تجزیه و تحلیل سریع و آسان داده قضاوت شما را مختل کند. یک طرز فکر امنیت را در نظر بگیرید، به کارکنان خود آموزش دهید، نه تنها در مورد سیاست های امنیت داده های شرکت خود، بلکه در مورد هوش مصنوعی و تهدیدات بالقوه ای که می تواند برای کسب و کارها داشته باشد. به یاد داشته باشید، ملاحظات اضافی در مورد کارگران از راه دور وجود دارد.
 

 

مجرمان سایبری از ChatGPT برای سوء استفاده از آسیب پذیری های سیستم های امنیتی استفاده می کنند:
 

یک شبکه تاریک کامل وجود دارد که رشد می کند و میلیون ها دلار از داده های سرقت شده متعلق به سازمان ها و افراد در سراسر جهان به دست می آورد. در واقع، گروه‌های باج‌افزار مانند کسب‌وکارهای معمولی، با بخش‌های بازاریابی و محصولات RaaS (باج‌افزار به‌عنوان خدمات) اداره می‌شوند! بی‌خطر می‌توان فرض کرد که هنگامی که ChatGPT در نوامبر ۲۰۲۲ برای همه در دسترس قرار گرفت، مجرمان سایبری یک روز میدانی داشتند.

و کشف کردند که انجام دادند. افراد بد به سرعت وارد ربات‌های زبان شدند و از آن برای یافتن آسیب‌پذیری‌های سیستم امنیت داده‌ها، نوشتن ایمیل‌های فیشینگ قانع‌کننده، کمک به ایجاد باج‌افزار و حتی بدافزار سفارشی برای فرار از سیستم‌های امنیتی استفاده کردند.

همه این‌ها سریع‌تر، کمتر قابل تشخیص‌تر و از نظر گرامری درست‌تر از همیشه هستند (ایمیل‌های فیشینگ با اشتباهات گرامری خود پرچم‌های قرمز را بالا می‌برند).

 

ChatGPT انجام حملات و سرقت داده های حساس از مشاغل را برای مجرمان سایبری آسان تر می کند. همانطور که شرکت ها به طور فزاینده ای برای پردازش و تجزیه و تحلیل داده ها به هوش مصنوعی و ChatGPT متکی هستند، سطح حمله برای نقض احتمالی داده ها گسترش می یابد. این بدان معنی است که نقاط ورود بالقوه بیشتری برای مجرمان سایبری وجود دارد تا از آنها سوء استفاده کنند.

 

حملات سایبری نیز این پتانسیل را دارند که پیچیده تر شوند. آیا می توان از ChatGPT برای فرار از تشخیص توسط اقدامات امنیتی سنتی استفاده کرد؟ شاید. آیا یک هکر هر کاری که می تواند انجام می دهد تا از ChatGPT به نفع مخرب خود استفاده کند؟ قطعا.

 

اقدامات کاهشی: کسب‌وکارها باید اقدامات امنیتی مناسب DLP مانند رمزگذاری، کنترل‌های دسترسی و ممیزی‌های امنیتی منظم را اجرا کنند. اگر تهدیدات امنیتی پیچیده تر می شوند، اقدامات DLP شما نیز باید پیچیده تر شوند. یک نرم‌افزار اختصاصی پیشگیری از از دست دادن داده (مانند Safetica NXT) می‌تواند یک تغییر دهنده بازی برای هر سازمان SMB یا بزرگ‌تر باشد.

 

هشدار: ChatGPT می تواند به عنوان ابزاری برای تهدیدات داخلی استفاده شود

 

هوش مصنوعی و ChatGPT همچنین می توانند توسط خودی ها برای نقض داده ها استفاده شوند. به عنوان مثال، یک کارمند می تواند از هوش مصنوعی برای شناسایی داده های حساس استفاده کند و سپس از ChatGPT برای ایجاد ایمیل های فیشینگ به خوبی نوشته شده برای سایر کارمندان یا شرکای تجاری استفاده کند.

 

شناسایی تهدیدهای خودی ممکن است دشوار باشد زیرا خودی قبلاً به داده های حساس دسترسی دارد که می تواند از آنها برای سرقت داده های بیشتر استفاده کند.

 

اقدامات کاهشی: برای کاهش خطر تهدیدات داخلی، کسب‌وکارها از رویکرد Zero Trust استفاده می‌کنند تا دسترسی به داده‌های حساس را فقط برای کسانی که به آن نیاز دارند محدود کنند. Safetica ONE یکی از بهترین محصولات DLP موجود است و مکانیسم‌های محافظت از تهدیدات داخلی را در خود جای داده است.

 

هشدار: این (احتمالا) قوانین حریم خصوصی را نقض می کند

علاوه بر آسیب احتمالی به اعتبار و مالی یک کسب و کار، نقض داده ها، از جمله مواردی که ChatGPT ایجاد می کند یا به آنها کمک می کند، می تواند منجر به عواقب قانونی و شکست در انطباق با مقررات شود. برای مثال، اگر کسب‌وکارها قوانین حفاظت از داده‌ها مانند GDPR، CCPA یا HIPAA را نقض کنند، ممکن است مشمول جریمه‌ها و سایر مجازات‌ها شوند. هیچ استثنایی وجود ندارد که بگوییم اگر ربات این کار را انجام دهد تقصیر شما نیست!

 

ایتالیا حتی ChatGPT را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرده است. اینکه آیا این نگرانی ها موجه هستند یا خیر، هنوز مشخص نیست، زیرا تحقیقات در حال حاضر در حال انجام است.

 

اقدامات کاهشی: کسب و کارها باید در مورد مقرراتی که باید از آنها پیروی کنند به روز بمانند و یک سیستم جامع مدیریت امنیت اطلاعات را در اختیار داشته باشند (ISO 27001 می تواند در این مورد کمک کند). با کارمندان خود در مورد سیاست های حفظ حریم خصوصی و حفاظت از داده ها صحبت کنید و در مورد تهدیدات استفاده از ChatGPT با آنها صحبت کنید.

 

 

نکات سامانه جلوگیری از نشت داده سیفتیکا برای محافظت از کسب و کار شما:

در اینجا چند نکته برای مشاغلی که به دنبال محافظت از خود در برابر تهدیدات احتمالی ناشی از ChatGPT هستند آورده شده است:

 

  • نکات_و_به روز رسانی

خطرات را درک کنید: از خطرات احتمالی مرتبط با استفاده از هوش مصنوعی و ChatGPT آگاه باشید و این اطلاعات را با مدیریت و کارمندان خود به اشتراک بگذارید. فراموش نکنید که شرایط خاص محیط های کاری ترکیبی را در نظر بگیرید.

  • شناسایی داده های حساس:

 داده های حساسی را که کسب و کار شما مدیریت می کند، مانند اطلاعات مشتری، اسرار تجاری یا سوابق مالی شناسایی کنید. یک راه حل هوشمند DLP می تواند به کشف و طبقه بندی داده ها کمک کند.

  • اجرای اقدامات امنیتی قوی:

 برای محافظت از داده های حساس، اقدامات مناسب DLP، مانند رمزگذاری، و کنترل های دسترسی را اجرا کنید. اطمینان حاصل کنید که سیستم های شناسایی و گزارش خودکار را در محل خود دارید.

  • انجام ممیزی های امنیتی منظم: 

بهترین روش در DLP انجام ممیزی های امنیتی منظم برای شناسایی و رفع هر گونه آسیب پذیری در سیستم های امنیتی داده شما است. به این ترتیب، شما می توانید قبل از اینکه مجرمان سایبری یا بازیگران داخلی بتوانند از آنها استفاده کنند، هر مشکلی را برطرف کنید.

  • آموزش کارکنان در مورد امنیت داده ها: 

به کارمندان خود در مورد بهترین شیوه های امنیت داده، از جمله نحوه رسیدگی به داده های حساس و شناسایی تهدیدات امنیتی، آموزش دهید.

از الزامات قانونی و نظارتی آگاه باشید: از هرگونه الزامات قانونی و نظارتی برای امنیت داده ها مانند GDPR، CCPA یا HIPAA آگاه باشید و از رعایت آن اطمینان حاصل کنید.

  • با اخبار امنیت داده ها به روز باشید: 

از آخرین پیشرفت ها و اخبار مرتبط با قابلیت های هوش مصنوعی مطلع شوید.

  • به دنبال مشاوره حرفه ای باشید: 

به عنوان یک صاحب کسب و کار یا متخصص فناوری اطلاعات، ممکن است بخواهید با یک متخصص حفاظت از داده ها مشورت کنید تا مطمئن شوید که از کسب و کار شما به اندازه کافی محافظت می شود.

نوشته های مرتبط