هوش مصنوعی همه جا هست. هزاران برنامه جدید هوش مصنوعی هر روز راه اندازی می شوند و یک جریان پیام دائمی وجود دارد که به شما یادآوری می کند که اگر سوار قطار هوش مصنوعی نشوید، عقب افتاده اید. اما اجازه ندهید فشار دنبال کردن قطار هوش مصنوعی شما را به نادیده گرفتن خطرات هوش مصنوعی و خطرات واقعی امنیت سایبری سوق دهد.
ما هوش مصنوعی را در مرورگرها، صندوق های ایمیل و سیستم های مدیریت اسناد خود تعبیه می کنیم. ما به آن استقلال می دهیم تا از طرف ما به عنوان دستیار مجازی عمل کند. ما اطلاعات شخصی و شرکتی خود را با آن به اشتراک می گذاریم. همه اینها، خطرات هوش مصنوعی و خطرات جدید امنیت سایبری را ایجاد کرده و خطر بازی های هکرهای سنتی را افزایش می دهد.
خطرات جدید هوش مصنوعی مولد
ابتدا، اجازه دهید پنج خطر جدید امنیت سایبری مرتبط با استفاده از ابزارهای هوش مصنوعی مولد را با هم مرور کنیم.
روند توسعه ضعیف
سرعتی که شرکتها میتوانند برنامههای هوش مصنوعی مولد را به کار گیرند، در دنیای توسعه نرمافزار بیسابقه است. کنترلهای معمولی روی توسعه نرمافزار و مدیریت چرخه عمر ممکن است همیشه وجود نداشته باشد.
مطالب پیشنهادی: عامل هوش مصنوعی چیست؟
به گفته آدریان ولنیک، بنیانگذار aigear.io، « پنهان کردن یک برنامه هوش مصنوعی در قالب یک محصول یا خدمات واقعی بسیار آسان است، در حالی که در واقعیت، با نظارت اندک یا بدون مراقبت یا اهمیت دادن به حریم خصوصی، امنیت یا حتی ناشناس بودن کاربر، اطلاعات او به راحتی قابل جمع آوری است.»
گرگ هچر، بنیانگذار White Knight Labs، یک شرکت مشاوره امنیت سایبری نیز با این نگاه موافق است: «تب طلا برای هوش مصنوعی به وجود آمده است. در سراسر توییتر و لینکدین، هزاران پیام وجود دارد که برنامههای هوش مصنوعی جدیدی را که یک نفر در شب قبل نوشته است، ارائه میکند. شما هم باید از آنها استفاده کنید وگرنه عقب خواهید ماند. اما واقعا آیا اتفاق خاصی رخ داده؟ این برنامه ها فقط مقداری HTML و جاوا اسکریپت است که برای فرانت نوشته شده و صرفا چت جی پی تی در بک اند است.»
افزایش خطر نقض داده ها و سرقت هویت
هنگامی که اطلاعات شخصی یا شرکتی خود را با هر برنامه نرم افزاری به اشتراک می گذاریم، به این معنی است که آنقدر به آن برنامه اعتماد داریم که در برابر حملات سایبری از خود به شت محافظت می کند. با این حال، با یکی از خطرات هوش مصنوعی و میزان دخالت آن همین است ممکن است ناخواسته بیش از آنچه که باید، به اشتراک بگذاریم.
رایان فابر، موسس و مدیر عامل Copymatic، هشدار می دهد: «برنامه های هوش مصنوعی داده های کاربر ما را مرور می کنند تا اطلاعات مهمی را برای بهبود تجربه کاربری دریافت کنند. فقدان رویه های مناسب در مورد نحوه جمع آوری، استفاده و ریختن داده ها باعث ایجاد برخی نگرانی ها درباره خطرات هوش مصنوعی می شود.»
امنیت ضعیف در خود برنامه هوش مصنوعی
افزودن هر برنامه جدید به شبکه، آسیبپذیریهای جدیدی ایجاد میکند که میتواند برای دسترسی به مناطق دیگر در شبکه شما مورد سوء استفاده قرار گیرد. برنامه های هوش مصنوعی مولد یک خطر منحصر به فرد هستند زیرا حاوی الگوریتم های پیچیده ای هستند که شناسایی نقص های امنیتی را برای توسعه دهندگان دشوار می کند.
مطالب پیشنهادی: مقایسه چت جی پی تی و بینگ
شان اوبراین موسس آزمایشگاه حریم خصوصی ییل و مدرس دانشکده حقوق ییل می گوید: «هنوز هوش مصنوعی به اندازه کافی پیچیده نیست تا تفاوت های ظریف توسعه نرم افزار را درک کند و همین نکته، کدهای آن را آسیب پذیر می کند. تحقیقات ارزیابی امنیت کد تولید شده توسط GitHub Copilot نشان داد که تقریبا چهل درصد از پیشنهادات برتر هوش مصنوعی و همچنین چهل درصد از کل پیشنهادات هوش مصنوعی منجر به آسیبپذیریهای کد می شود. محققان همچنین دریافتند که تغییرات کوچک و غیر معنایی مانند نظرات میتواند بر ایمنی کد تاثیر بگذارد.»
اوبراین نمونه هایی را به اشتراک گذاشت که چگونه خطرات هوش مصنوعی می توانند ظاهر شوند:
اگر بتوان مدلهای هوش مصنوعی را فریب داد و ورودیهای خطرناک را بهعنوان ایمن طبقهبندی کرد، برنامهای که با این هوش مصنوعی توسعهیافته است میتواند بدافزار را اجرا کرده و حتی کنترلهای امنیتی را دور بزند تا به بدافزار امتیازات بالاتری بدهد.
مدل های هوش مصنوعی که فاقد نظارت انسانی هستند می توانند در برابر مسمومیت داده ها آسیب پذیر باشند. اگر از یک چت بات توسعه یافته با هوش مصنوعی، منوی یک رستوران محلی خواسته را بخواهیم، یا از او بخواهیم که یک مرورگر وب محافظ حریم خصوصی دانلود کند، یا بپرسیم ایمنترین VPN برای استفاده چیست، کاربر میتواند در عوض به وبسایتهایی که حاوی باجافزار هستند هدایت شود.
نشت
داده هایی که اطلاعات محرمانه شرکت را افشا می کند
اگر اکنون مدتی است که با ابزارهای هوش مصنوعی کار میکنید، احتمالا نقش نوشتن یک پرامپت خوب را در گرفتن نتایج خوب یاد گرفتهاید. شما به چت بات هوش مصنوعی اطلاعات پس زمینه و زمینه را برای دریافت بهترین پاسخ ارائه می دهید.
خب، ممکن است اطلاعات اختصاصی یا محرمانه را با چت ربات هوش مصنوعی به اشتراک بگذارید – و این خوب نیست. تحقیقات انجام شده توسط Cyberhaven، یک شرکت امنیت داده، نشان داد که:
یازده درصد از داده هایی که کارمندان در چت جی پی تی قرار می دهند محرمانه است.
چهار درصد از کارمندان حداقل یک بار داده های حساس را در آن قرار داده اند.
کارمندان دارایی معنوی، اطلاعات استراتژیک حساس و داده های مشتری را به اشتراک می گذارند.
دنیس بیکر، مدیر عامل SignPost Six، یک شرکت مشاوره و آموزش ریسک داخلی، تاکید دارد:
«نگران کننده ترین خطرات هوش مصنوعی برای سازمان ها، حریم خصوصی داده ها و افشای مالکیت معنوی است. کارمندان ممکن است داده های حساس را با ابزارهای مبتنی بر هوش مصنوعی، مانند چت جی پی تی و بارد به اشتراک بگذارند. به اسرار تجاری احتمالی، اطلاعات طبقه بندی شده و داده های مشتری که در این ابزار داده می شود فکر کنید. این دادهها میتوانند توسط ارائهدهندگان خدمات ذخیره، دسترسی یا سوء استفاده شوند.»
استفاده مخرب از دیپ فیک
تشخیص صدا و چهره بیشتر به عنوان یک معیار امنیتی کنترل دسترسی استفاده می شود. طبق بسیاری از گزارش ها، هوش مصنوعی فرصتی برای بازیگران بد برای ایجاد دیپفیک است که امنیت را دور میزند.
نوشته خطرات هوش مصنوعی اولین بار در هفتهنامه شنبه. پدیدار شد.
آخرین دیدگاهها