هشدار دانشمندان در مورد اشتراک گذاری اطلاعات حساس با چت رباتهای هوش مصنوعی
تاریخ انتشار: ۱۹ بهمن ۱۴۰۲ | کد خبر: ۳۹۷۰۸۷۸۰
با توجه به اطلاعیه اخیر در رابطه با عملکرد پیشرفته معرفی شده توسط سیستم ChatGPT، که در آن GPTهای سفارشی میتوانند در مکالمات با ChatGPT بومی ادغام شوند، کارشناسان مرکز تحقیقات روسیه کسپرسکی بر نیاز به مراقبت بیشتر در هنگام اشتراک گذاری اطلاعات حساس با چت رباتهای هوش مصنوعی تاکید کردند.
ولادسلاو توشکانوف مدیر گروه توسعه پژوهشها در مؤسسه پژوهشی کسپرسکی در این مورد میگوید: چت ربات سفارشی میتواند از منابع و ابزارهای خارجی برای عملکردهای پیشرفته استفاده کند، بنابراین آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI مکانیزمی را ایجاد کرده است که کاربران را قادر میسازد رویههایی را که توسط سیستم GPT دنبال میشوند را بررسی و تأیید کنند، تا از نشت گفتگوی احتمالی جلوگیری شود.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
هنگامی که این سیستمهای سفارشی سعی میکنند دادهها را به یک سرویس شخص ثالث ارسال کنند، از خود کاربران خواسته میشود که این عملیات را مجاز یا رد کنند و همچنین گزینه دیگری برای بازرسی دادهها با استفاده از نماد منوی کشویی در رابط وجود دارد، همین قابلیت برای عملکرد جدید اعمال میشود.
توشکانوف افزود: علی رغم معرفی این مکانیسم ها، کاربران باید آگاه باشند و با احتیاط کامل عمل کنند، زیرا باید هر درخواست دریافتی را بررسی و درک کنند که ممکن است بر تجربه کلی آنها تاثیر بگذارد. نه تنها این احتمال ممکن است، بلکه راههای بالقوه دیگری نیز برای درز دادهها از سرویس چت ربات وجود دارد که در نتیجه خطاها یا ضعفهایی در سرویس رخ میدهد، چنانچه دادهها در طول فرآیند آموزش مدل حفظ شوند یا اگر شخصی موفق به نفوذ به حساب شما شود. به طور کلی، باید مراقب باشید و از به اشتراک گذاری اطلاعات شخصی و محرمانه با هر سرویس چت بات از طریق اینترنت خودداری کنید.
منبع: الیوم السابع
باشگاه خبرنگاران جوان علمی پزشکی دانلود نرمافزارمنبع: باشگاه خبرنگاران
کلیدواژه: هوش مصنوعی اطلاعات حساس اشتراک گذاری چت ربات ها چت ربات داده ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۷۰۸۷۸۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی گرایش سیاسی افراد را از چهرهشان میخواند
ایتنا - مطالعهای جدید میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی میتواند گرایش سیاسی افراد را از روی چهرههای بدون حالت و بیاحساس پیشبینی کند، محققان هشدار دادند که فناوریهای تشخیص چهره از آنچه قبلا به نظر میرسید، «تهدیدآمیزتر» شده و برای حریم خصوصی چالش جدی به وجود آوردهاند.
مطالعهای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکتکننده قبل از آنکه هوش مصنوعی آنها را چهرهنگاری (استخراج اطلاعات مخصوص و منحصربهفرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامهای درباره گرایش سیاسی خود پر کردند. سپس دادههای چهرهنگاری را با پاسخ پرسشنامههای جهتگیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهرهها به دست آورده بود، جهتگیری سیاسی هر شخص را پیشبینی کند.
کوزینسکی میگوید: «فکر میکنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصیشان را برای دیگران فاش میکنند.»
او افزود: «ما میدانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما میتوانستید به حساب کاربری فیسبوک افراد وارد شوید و به عنوان مثال گرایشهای سیاسی، آنچه را که پسند میکنند (لایک میزنند) و صفحاتی را که دنبال کردهاند، ببینید. اما فیسبوک سالها پیش آن را بست زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»
کوسینسکی افزود: «در حال حاضر نیز هر کس میتواند به فیسبوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچوقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان میدهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهتگیری سیاسی آنها باشد.»
محققان میگویند که تصاویر افراد شرکتکننده در این پژوهش را در شرایطی بسیار مشخص و کنترلشده جمعآوری کردند. به این ترتیب که این افراد همگی تیشرتهای مشکی پوشیده و زیورآلاتشان را در آورده بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهرهها را از طریق الگوریتم چهره ویجیجی فیس۲ (VGGFace2) بررسی کردند.
محققان هشدار میدهند که فناوریهای نظارت بیومتریکی، به ویژه فناوریهای تشخیص چهره، تهدیدی جدیتر از گذشته برای حریم شخصی افرادند. پژوهشهای پیشتر نیز نشان داده بودند که تصاویر طبیعی چهره میتواند اطلاعات مهمی را درباره جهتگیری سیاسی و ویژگیهای شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیشبینیها به دلیل نحوه ارائه شخص و ویژگیهای ثابت چهره (خنثی) فعال شدهاند یا هر دو این عوامل. محققان میگویند، نتایج ما نشان میدهند که ویژگیهای ثابت چهره در انتقال این سیگنالها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاههای نظارتی میرسد.
به گفته کوزینسکی، این الگوریتمها را میتوان بسیار سریع و ارزان برای میلیونها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوریهایی است که در گوشیها وجود دارد و به طور گسترده در همهجا استفاده میشود.