یکی از مدیران ارشد بخش موتور جستجوی گوگل در مصاحبه ای اعلام کرد تله های بالقوه ای در زمان استفاده از هوش مصنوعی وجود دارد که باید نسبت به آن مراقب بود. این فناوری می تواند به هذیان گویی دچار شود.
به گزارش تکنا، پراباکار رغوان، معاون ارشد گوگل در مصاحبه خود با روزنامه Welt am sonntag اعلام کرد
هوش مصنوعی کنونی که الان در حال استفاده از آن هستیم ممکن است به حالتی دچار شود که به آن هذیان گویی گفته میشود. وی در این مورد توضیح داد: سیستم های کامپیوتری با کمک هوش مصنوعی امکان تولید محتواهای متقاعد کننده را دارا هستند. اما در واقع همه آن ها ساختگی هستند. او در این مورد می گوید وظیفه اصلی تیم آنها در گوگل به حداقل رساندن چنین مشکلی بوده است.
پس از آنکه مایکروسافت از همکاری خود با OpenAI و استفاده از نسخه پیشرفته هوش مصنوعی ChatGPT در مرورگر خود خبر داد، گوگل احساس خطر کرده و تلاش کرد تا فناوری هوش مصنوعی خود را نیز عرصه کند. رغوان در این مورد می گوید: با وجودی که شرایط اضطرار احساس می شود، احساس مسئولیت نیز در ما وجود دارد تا از گمراه کردن عموم کاربران جلوگیری شود.
گوگل در روزهای گذشته هوش مصنوعی خود به نام Bard را عرضه کرد. این غول فناوری درست یک روز پس از مراسم مایکروسافت از دموی این فناوری رونمایی کرد. به گفته گوگل این فناوری قرار است با کمک کاربران توسعه یابد. البته طی روزهای گذشته چندان استقبال مثبتی از آن به عمل نیامده است.
محققان می گویند محدودیت های قرار داده شده در چت بات ChatGPT توسط OpenAI برای جلوگیری از سو استفاده چندان کارایی نداشته و کلاهبرداران با دور زدن آن توانسته اند از این فناوری برای تولید کدهای بدافزار استفاده کنند. به گزارش تکنا، گزارش های جدید نشان می دهد کلاهبرداران از چت بات ChatGPT برای بهبود […]
ک محقق امنیتی موفق به کشف یک آسیب پذیری در اندروید ۱۰ تا ۱۳ شد که امکان گذر از لاک اسکرین یاصفحه قفل را به افراد دیگر می دهد. به گزارش سرویس تکنا، یک محقق امنیتی به نام دیوید شوتز بطور تصادفی آسیبپذیری را در گوشی های اندرویدی کشف کرد. بدین ترتیب که مهاجم پس از […]
اپل در حال توسعه چندین سیستم مالی است که به نظر می رسد باز هم با مشکل مواجه شده و عرضه آنها با تاخیر مواجه است. این شرکت توسعه این سرویس ها را در سکوت خبری انجام می دهد. به گزارش تکنا، اپل طی ماه های گذشته چندین سیستم مالی معرفی کرده است. اما هنوز هیچ […]
دیدگاهتان را بنویسید