Web Analytics Made Easy - Statcounter

با توجه به اطلاعیه اخیر در رابطه با عملکرد پیشرفته معرفی شده توسط سیستم ChatGPT، که در آن GPT‌های سفارشی می‌توانند در مکالمات با ChatGPT بومی ادغام شوند، کارشناسان مرکز تحقیقات روسیه کسپرسکی بر نیاز به مراقبت بیشتر در هنگام اشتراک گذاری اطلاعات حساس با چت ربات‌های هوش مصنوعی تاکید کردند.

ولادسلاو توشکانوف مدیر گروه توسعه پژوهش‌ها در مؤسسه پژوهشی کسپرسکی در این مورد می‌گوید: چت ربات سفارشی می‌تواند از منابع و ابزار‌های خارجی برای عملکرد‌های پیشرفته استفاده کند، بنابراین آزمایشگاه تحقیقاتی هوش مصنوعی OpenAI مکانیزمی را ایجاد کرده است که کاربران را قادر می‌سازد رویه‌هایی را که توسط سیستم GPT دنبال می‌شوند را بررسی و تأیید کنند، تا از نشت گفتگوی احتمالی جلوگیری شود.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

هنگامی که این سیستم‌های سفارشی سعی می‌کنند داده‌ها را به یک سرویس شخص ثالث ارسال کنند، از خود کاربران خواسته می‌شود که این عملیات را مجاز یا رد کنند و همچنین گزینه دیگری برای بازرسی داده‌ها با استفاده از نماد منوی کشویی در رابط وجود دارد، همین قابلیت برای عملکرد جدید اعمال می‌شود.

توشکانوف افزود: علی رغم معرفی این مکانیسم ها، کاربران باید آگاه باشند و با احتیاط کامل عمل کنند، زیرا باید هر درخواست دریافتی را بررسی و درک کنند که ممکن است بر تجربه کلی آن‌ها تاثیر بگذارد. نه تنها این احتمال ممکن است، بلکه راه‌های بالقوه دیگری نیز برای درز داده‌ها از سرویس چت ربات وجود دارد که در نتیجه خطا‌ها یا ضعف‌هایی در سرویس رخ می‌دهد، چنانچه داده‌ها در طول فرآیند آموزش مدل حفظ شوند یا اگر شخصی موفق به نفوذ به حساب شما شود. به طور کلی، باید مراقب باشید و از به اشتراک گذاری اطلاعات شخصی و محرمانه با هر سرویس چت بات از طریق اینترنت خودداری کنید.

منبع: الیوم السابع

باشگاه خبرنگاران جوان علمی پزشکی دانلود نرم‌افزار

منبع: باشگاه خبرنگاران

کلیدواژه: هوش مصنوعی اطلاعات حساس اشتراک گذاری چت ربات ها چت ربات داده ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۷۰۸۷۸۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند

ایتنا - مطالعه‌ای جدید می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی می‌تواند گرایش سیاسی افراد را از روی چهره‌های بدون حالت و بی‌احساس پیش‌بینی کند، محققان هشدار داد‌‌ند که فناوری‌های تشخیص چهره از آنچه قبلا به نظر می‌رسید، «تهدیدآمیزتر» شده‌‌ و برای حریم خصوصی چالش جدی به وجود آورده‌اند.  

مطالعه‌ای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.

به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکت‌کننده قبل از آنکه هوش مصنوعی آنها را چهره‌نگاری (استخراج اطلاعات مخصوص و منحصربه‌فرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامه‌‌ای درباره گرایش سیاسی خود پر کردند. سپس داده‌های چهره‌نگاری را با پاسخ‌ پرسشنامه‌های جهت‌گیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهره‌ها به دست آورده بود، جهت‌گیری سیاسی هر شخص را پیش‌بینی کند.

کوزینسکی می‌گوید: «فکر می‌کنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصی‌شان را برای دیگران فاش می‌کنند.»

او افزود: «ما می‌دانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما می‌توانستید به حساب کاربری فیس‌بوک افراد وارد شوید و به عنوان مثال گرایش‌های سیاسی، آنچه را که پسند می‌کنند (لایک می‌زنند) و صفحاتی را که دنبال کرده‌اند، ببینید. اما فیس‌بوک سال‌ها پیش آن را بست زیرا برای سیاست‌گذاران، فیس‌بوک و روزنامه‌نگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»

کوسینسکی افزود: «در حال حاضر نیز هر کس می‌تواند به فیس‌بوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچ‌وقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان می‌دهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهت‌گیری سیاسی آن‌ها باشد.»

محققان می‌گویند که تصاویر افراد شرکت‌کننده در این پژوهش را در شرایطی بسیار مشخص و کنترل‌شده جمع‌آوری کردند. به این ترتیب که این افراد همگی تی‌شرت‌های مشکی‌ پوشیده و زیور‌آلاتشان را در آورده‌ بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهره‌ها را از طریق الگوریتم چهره وی‌جی‌جی فیس۲ (VGGFace2) بررسی کردند.

محققان هشدار می‌دهند که فناوری‌های نظارت بیومتریکی، به ویژه فناوری‌های تشخیص چهره، تهدیدی جدی‌تر از گذشته برای حریم شخصی افرادند. پژوهش‌های پیش‌تر نیز نشان داده بودند که تصاویر طبیعی چهره می‌تواند اطلاعات مهمی را درباره جهت‌گیری سیاسی و ویژگی‌های شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیش‌بینی‌ها به دلیل نحوه ارائه شخص و ویژگی‌های ثابت چهره (خنثی) فعال شده‌اند یا هر دو این عوامل. محققان می‌گویند، نتایج ما نشان می‌دهند که ویژگی‌های ثابت چهره در انتقال این سیگنال‌ها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاه‌های نظارتی می‌رسد.

به گفته کوزینسکی، این الگوریتم‌ها را می‌توان بسیار سریع و ارزان برای میلیون‌ها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوری‌هایی است که در گوشی‌ها وجود دارد و به طور گسترده در همه‌جا استفاده می‌شود. 

دیگر خبرها

  • آینده رقابت متا با غول‌های هوش مصنوعی
  • هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند
  • راه‌اندازی اپراتور هوش مصنوعی در کشور / GPU هایتان را با اپراتور به اشتراک بگذارید
  • چگونه دانشمندان تنها در چند ساعت الماس تولید کردند
  • دانشمندان تنها در چند ساعت الماس تولید کردند
  • امکان ارسال پیوست بدون اینترنت در واتس‌اپ
  • هوش مصنوعی گوگل معلم زبان انگلیسی می‌شود
  • دانشگاه‌های انگلیس بابت ارتباط با چین زیر ذره‌بین سرویس‌ امنیتی می‌روند
  • چرا ربات‌ها و هوش مصنوعی هنوز به گرد پای حیوانات نرسیده‌اند؟
  • دانشمندان تنها در ۱۵۰ دقیقه الماس ساختند