یکی از مدیران ارشد بخش موتور جستجوی گوگل در مصاحبه ای اعلام کرد تله های بالقوه ای در زمان استفاده از هوش مصنوعی وجود دارد که باید نسبت به آن مراقب بود. این فناوری می تواند به هذیان گویی دچار شود.
به گزارش تکنا، پراباکار رغوان، معاون ارشد گوگل در مصاحبه خود با روزنامه Welt am sonntag اعلام کرد
هوش مصنوعی کنونی که الان در حال استفاده از آن هستیم ممکن است به حالتی دچار شود که به آن هذیان گویی گفته میشود. وی در این مورد توضیح داد: سیستم های کامپیوتری با کمک هوش مصنوعی امکان تولید محتواهای متقاعد کننده را دارا هستند. اما در واقع همه آن ها ساختگی هستند. او در این مورد می گوید وظیفه اصلی تیم آنها در گوگل به حداقل رساندن چنین مشکلی بوده است.
پس از آنکه مایکروسافت از همکاری خود با OpenAI و استفاده از نسخه پیشرفته هوش مصنوعی ChatGPT در مرورگر خود خبر داد، گوگل احساس خطر کرده و تلاش کرد تا فناوری هوش مصنوعی خود را نیز عرصه کند. رغوان در این مورد می گوید: با وجودی که شرایط اضطرار احساس می شود، احساس مسئولیت نیز در ما وجود دارد تا از گمراه کردن عموم کاربران جلوگیری شود.
گوگل در روزهای گذشته هوش مصنوعی خود به نام Bard را عرضه کرد. این غول فناوری درست یک روز پس از مراسم مایکروسافت از دموی این فناوری رونمایی کرد. به گفته گوگل این فناوری قرار است با کمک کاربران توسعه یابد. البته طی روزهای گذشته چندان استقبال مثبتی از آن به عمل نیامده است.
دانشمندان هلندی موفق شدند سامانه موقعیت یاب جدیدی را توسعه دهند که دارای دقتی بالاتر از GPS است. این سیستم به عنوان جایگزینی برای جی پی اس می تواند دقت ده سانتی متری داشته باشد. به گزارش سرویس تکنا، پژوهشگران موفق به ساخت سامانه ای جدید برای موقعیت یابی شدند که می تواند در محیط […]
گزارش اخیر نشان می دهد توییتر از ده حساب نفرت پراکنی که به همین دلیل مسدود شده بودند حدود ۱۹ میلیون دلار درآمد دارد. به گزارش تکنا، اخیرا گزارشی در مورد درآمد توییتر منتشر شده است که در آن نشان می دهد این شبکه اجتماعی از ده حساب که محتوای نفرت پراکنی منتشر میکند و […]
ک محقق امنیتی موفق به کشف یک آسیب پذیری در اندروید ۱۰ تا ۱۳ شد که امکان گذر از لاک اسکرین یاصفحه قفل را به افراد دیگر می دهد. به گزارش سرویس تکنا، یک محقق امنیتی به نام دیوید شوتز بطور تصادفی آسیبپذیری را در گوشی های اندرویدی کشف کرد. بدین ترتیب که مهاجم پس از […]
دیدگاهتان را بنویسید