مطالعه جدید محققان نشان میدهد استفاده از سیستمهای هوش مصنوعی تولید کننده کد همراه با آسیب پذیری های امنیتی خواهد بود.
به گزارش تکنا، مطالعات اخیر مهندسان نرم افزاری در زمینه سیستم های هوش مصنوعی نشان میدهد احتمال ایجاد آسیب پذیری های امنیتی در برنامه هایی که با کمک هوش مصنوعی توسعه داده شده اند بسیار زیاد است. این مطالعه توسط تیمی از محققان دانشگاه استنفورد تهیه شد. هدف از این تحقیق نیز مشکلات احتمالی کد نویسی با استفاده از هوش مصنوعی است. این در حالی است که برخی فروشندگان مانند گیت هاب درحال بازاریابی برای چنین برنامه هایی هستند.
نیل پری، دانشجوی دکترا در استنفورد و یکی از محققان این پژوهش در گزارشی به وبسایت تک کرانچ گفته است: نمی توان از کد نویسی هوش مصنوعی به عنوان جایگزین مناسب انسانی برای توسعه دهندگان استفاده کرد. افرادی که از این سیستم برای کار های خارج از حوزه تخصصی استفاده می کنند باید مراقب باشند و کسانی هم که برای افزایش سرعت کار خود از این سیستم استفاده می کنند باید با دقت خروجی ها را بررسی کنند.
تمرکز اصلی محققان در این مطالعه روی سیستم تولید کد هوش مصنوعی شرکت OpenAI به نام Codex بوده است. در این تحقیق از ۴۷ توسعه دهنده استفاده شد تا در آزمایشی از Codex در فرایند تکمیل مشکلات مربوط به امنیت استفاده شود. زبان های برنامه نویسی استفاده شده نیز پایتون، جاوا اسکریپت و C بود.
این سیستم که آموزش آن توسط میلیاردها خط کد عمومی انجام شده است میتواند با توجه به کد موجود کدهای دیگر را اضافه کند. به گفته محققان در آزمایش انجام شده آنهایی که از Codex استفاده کرده بودند نسبت به گروه کنترل احتمال استفاده از راه حل های نادرست و ناامنی برای مشکلات برنامه نویسی داشتند. آنها ممکن است تصور کنند پاسخ های ناامن ایجاد شده توسط آنها در مقایسه با افراد گروه کنترل از امنیت بیشتری برخوردار است.
بدین ترتیب فروشندگانی مانند گیت هاب نمیتوانند متوجه وجود نقص های امنیتی که توسط توسعه دهندگان با کد نویسی هوش مصنوعی ایجاد شده، شوند.
https://techna.news/
احتمالاً شرکت سازنده هوش مصنوعی ChatGPT از این فناوری به جای مهندسان خود استفاده کند. این شرکت برای آموزش هوش مصنوعی صدها پیمانکار را بیسر و صدا استخدام کرده بود. برخی از آنها وظیفه آموزش مهندسی نرمافزار به این هوش مصنوعی را بر عهده داشتند. بدین ترتیب امکان جایگزینی هوش مصنوعی به جای مهندسان وجود دارد. به […]
آسیبپذیری روز صفر فورتینت، مهاجمان احراز هویت نشده را قادر میسازد تا کد مخرب و دلخواه را به طور بالقوه و از راه دور در تجهیزات آسیبپذیر اجرا کنند. بهگزارش مرکز مدیریت راهبردی افتا، مهاجمان با سوءاستفاده از این آسیبپذیری اقدام به نصب بدافزار کرده و به شدت بر حفظ ماندگاری در سیستم و فرار […]
در حالی که تنها یک هفته از رونمایی بینگ جدید با ادغام هوش مصنوعی ChatGPT میگذرد گزارش های زیادی در مورد توهین، دروغ و جواب های غلط از این موتور جستجو منتشر شده است. پس از ابن موضوع مایکروسافت در پست وبلاگی خود اعلام کرد به دلیل چت طولانی مدت پاسخ های این هوش مصنوعی با مشکل […]
دیدگاهتان را بنویسید