هوش مصنوعی جیمنای به اپلیکیشن پیامرسان گوگل اضافه میشود
تاریخ انتشار: ۱۱ اسفند ۱۴۰۲ | کد خبر: ۳۹۸۵۶۴۲۸
ایتنا - گوگل اکنون برای جمنای (Gemini)، دستیار هوش مصنوعیاش، امکان ارسال پیام به کاربران را فراهم میکند.
این شرکت در حال اضافه کردن ابزار هوش مصنوعی به اپلیکیشن «مسیج» (Google Messages) آن است. این به معنی آن است که جمنای در کنار چتهای دوستان ظاهر میشود و فقط با ارسال پیامک، آماده چت کردن با کاربران است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
ارائه این بهروزرسانی کاربران را تشویق میکند تا هنگام چت کردن با جمنای، «پیامهایی را پیشنویس» کنندــ برای نمونه، افراد میتوانند با سیستم هوش مصنوعی درباره پاسخهایشان به دوستان چت کنند. گوگل گفت که از آن میتوان برای «ایدهپردازی، برنامهریزی برای رویدادها یا صرفا یک مکالمه سرگرمکننده بدون خروج از اپلیکیشن مسیج» هم استفاده کرد.
این بهروزرسانی جدید در گیرودار انتقادهای فزاینده از هوش مصنوعی جمنای گوگل ارائه میشود. گوگل هفته پیش، به دلیل مناقشه بر سر این واقعیت که تصاویر تاریخی نادرست و از نظر نژادی متفاوت تولید میکرد، مجبور شد بخشهایی از قابلیتهایش را آفلاین کند.
کاربران دریافتند که برای مثال، درخواست برای تولید عکس سربازان نازی یا پدران بنیانگذار ایالات متحده بیشتر یا فقط تصاویری از زنان و رنگینپوستان ایجاد میکند. گوگل پذیرفت که این ابزار «به هدفش نرسیده است» و این سیستم را از ساختن تصاویر افراد منع کرد.
قرار دادن جمنای در اپلیکیشن گوگل مسیج فقط در گوشیهای اندرویدی امکانپذیر است و تنها برای کسانی در دسترس است که بخشی از برنامه بتای گوگلاند.
این بهروزرسانی در میان انبوهی از بهروزرسانیهای جدید اندروید ارائه شد که بسیاری از آنها بر هوش مصنوعی متمرکز بود. برای مثال، اندریود اتو (Android Auto) اکنون میتواند به طور خودکار، پیامهای طولانی و چتهای شلوغ را خلاصه کند و همچنین پاسخهای مرتبطی را که هنگام رانندگی میتوان به سرعت انتخاب کرد، پیشنهاد کند.
اندروید همچنین قادر خواهد بود زیر تصاویر توضیح بگذارد؛ ویژگی که این شرکت گفت «برای گروههای نابینا و کمبینا» طراحی شده است. اندروید همچنین ویژگیهای دسترسی جدید به «گوگل مپز» (Google Maps) را اضافه کرد تا بتواند مکانهای مهم را شناسایی کند و اطلاعات مربوط به آنها را با صدای بلند بخواند.
گوگل همچنین اعلام کرد که اپلیکیشن «فیتبیت» (Fitbit) را طراحی مجدد کرده است. این برنامه اکنون میتواند دادههای انواع ابزارهای الکترونیکی قابل بستن به بدن را در یکجا جمع میکند.
منبع: ايتنا
کلیدواژه: جمینای گوگل پیام رسان هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۸۵۶۴۲۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری