هوش مصنوعی و معضل نابودی اعتماد عمومی
تاریخ انتشار: ۲۸ تیر ۱۴۰۲ | کد خبر: ۳۸۲۵۹۶۴۸
به گزارش خبرنگار مهر، تولید دیپ فیک (deep fake) یکی از توانمندیهای هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهکنندهای که تولید میکند را در بر میگیرد. دیپفیکها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
بزرگترین خطری که دیپفیک ایجاد میکند، تواناییاش در انتشار اطلاعات نادرستی است که به نظر قابلاعتماد میآید.
مورد دیگر نگرانیهایی است که در مورد احتمال دخالت دیپفیک در انتخابات و تبلیغات انتخاباتی مطرح شده است. دیپفیکها درحالیکه تهدید جدی هستند در مواردی مانند بازیهای ویدئویی و برنامههای پشتیبانی مشتری و پاسخ به تماسگیرندگان، کاربردهای قانونی دارند.
همانطور که سابقاً اشاره شد، ویدئوهای دیپفیک شامل فیلمهای دستکاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد ایجاد کرده یا کلاً هویت آنها را تغییر میدهد و هویت شخص دیگری را جایگزین میکند. یک نوع دیگر از دیپفیک، جعل صدای افراد است که در مواردی میتواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپفیک استفاده کرده و صدای مدیر واقعی را جعل کرده است.
عکسهای دیپفیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار دشواری نیست. در یکی از اولین تحقیقات درباره این پدیده، فیسبوک دهها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی بهعنوان عکس پروفایل استفاده میکردند.
شیوع محتوای جعلی
یکی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به علت تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعیهای مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند.
هوش مصنوعی مولد قادر است اطلاعات نادرست و جعلی را به طور گسترده و مانند ویروس شیوع دهد. الگوریتمهای هوش مصنوعی مولد میتوانند متون، تصاویر و ویدئوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی بسیار سخت است. در دوره همهگیری ویروس کرونا، یکی از آسیبهایی که بعد از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد قادر است چالشهای مربوط به انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و آسیبهایی مانند بازیدادن افکار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را در پی داشته باشد.
حوزههای در معرض آسیب
الگوریتمهای هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانهای ایجاد کنند که کاملاً ساختگی بوده و از محتوای واقعی کاملاً دور هستند. دیپفیکها میتوانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مسئله قادر است پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامهنگاری داشته باشد.
یکی دیگر از حوزههایی که ممکن است با دیپفیک به خطر بیفتد، حوزه قضاوت است. با همهگیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرایند دادرسی را پیچیدهتر کنند.
حوادث مهم سیاسی و اجتماعی نیز میتواند به بستری برای جولان سو استفادهکنندگان از هوش مصنوعی مولد تبدیل شود.
انتخابات
همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصههایی است که در عصر جدید نیاز به مراقبتهای بیشتر دارد. انتخاب درست با تحقیق بر مبنای اطلاعات صحیح صورت میگیرد و در غیر این صورت مردم بازیچه دست ذینفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض آسیب دیپ فیک هستند و بنظر میرسد قانونگذاران به تکاپوی تنظیمگری این حوزه خواهند افتاد یا متحمل آسیبهای جبران ناپذیر خواهند شد!
کشور چین، در خط مقدم مقابله با محتوای دیپفیک
در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپفیک و انتشار اخبار جعلی توسط هوش مصنوعی مولد نکردهاند و این به دلیل شناخت کم آنها از این فناوری نو است. مادامی که تکنولوژی پیچیدهتر و در دسترس تر برای عموم میشود، مقابله با خطرات و آسیبهای آن نیز دشوارتر میشود.
چین که یکی از بسترهای توسعه هوش مصنوعی مولد است سعی دارد تا پیش از سایر کشورها به مقابله با آسیبهای دیپفیک برخیزد. این کشور اخیراً قوانین گستردهای تصویب کرده که بر اساس آن مطالب دستکاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن نیز اعلام شود. در این قوانین چین مسئولیت رد شایعات را بر عهده ارائهدهندگان خدمات ساخت محتواهای دیپفیک گذاشته است.
مشکلی که برای مقابله با تکنولوژی جدید وجود دارد این است که افرادی که قصد سو استفاده دارند عموماً باهویت جعلی و یا بیهویت و مخفیانه دست به اقدامات نادرست میزنند. شناسایی آنها به همین دلیل آسان نیست، بنابراین سایر کشورها هنوز موفق به تدوین قوانین تنظیمگرانه هوش مصنوعی مولد نشدهاند. سختگیریهای زیاد هم ممکن است آزادی کاربران را به خطر بیندازد که تا کنون کشوری اقدام به اعمال محدودیتهای شدید در این حوزه نکرده است.
به گفته کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این زمینه، به سایر کشورها کمک کرده تا اقدام به مقابله با دیپفیک کنند. سابقهها بر این منوال است که قانونگذاران در سراسر جهان ترجیح میدهند قبل از تدوین چارچوبهای جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند.
راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» میگوید: «این عرصه برای تعیین سیاست جهانی سرنوشتساز است، زیرا کشورها در حال رقابتاند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص میکند.»
دیپفیک و برخی فواید
با وجود همه چالشهای ذکر شده برای این فناوری، دیپفیک در بسیاری از صنایع میتواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با ایجاد آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از راهرفتن او در میان گروهی از خانواده و دوستانش را دوباره به جریان انداخت. این فناوری همچنین میتواند برای ساختن برنامههای طنز و سرگرمی، خریداران آنلاین لباس که میتوانند با استفاده از این فناوری لباسها را در اتاقهای تزئین مجازی امتحان کنند و انیمیشنسازان مفید باشد.
منبع: مهر
کلیدواژه: هوش مصنوعی فناوری اطلاعات تکنولوژی حکمرانی فضای مجازی اخبار جعلی حاکمیت سایبری شرکت های دانش بنیان تحقیقات علمی معاونت علمی فناوری و اقتصاد دانش بنیان ریاست جمهوری وزارت ارتباطات و فناوری اطلاعات سازمان فناوری اطلاعات ایران وزیر ارتباطات و فناوری اطلاعات روح الله دهقانی فیروزآبادی نوآوری سازمان فضایی ایران نخبگان بنیاد ملی نخبگان شرکت دانش بنیان عیسی زارع پور انتشار اطلاعات نادرست هوش مصنوعی مولد سایر کشورها دیپ فیک
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.mehrnews.com دریافت کردهاست، لذا منبع این خبر، وبسایت «مهر» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۲۵۹۶۴۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
کلاهبرداری با ترفند رسیدساز جعلی
ایسنا/خراسان رضوی فرمانده انتظامی شهرستان کاشمر از دستگیری فردی که با استفاده از برنامه رسیدساز جعلی در تلفن همراه خود اقدام به کلاهبرداری کرده بود، خبر داد.
سرهنگ حسن مشهدی در گفت و گو با ایسنا از دستگیری ۲ متهم که با ترفند رسیدساز جعلی از ۷ نفر از شهروندان کلاهبرداری کرده بودند در این شهرستان خبر داد و گفت: در پی ارائه مرجوعه قضائی از سوی یکی از شهروندان به پلیس آگاهی مبنی بر کلاهبرداری از وی، پیگیری موضوع در دستور کار کارآگاهان پلیس آگاهی قرار گرفت.
وی افزود: مأموران دایره مبارزه با جعل و کلاهبرداری پلیس آگاهی در بررسی اظهارات مالباخته که مالک یک فروشگاه بود دریافتند متهم ابتدا اقدام به خرید از فروشگاه شاکی کرده و در ادامه با نشان دادن رسید واریز وجه به حساب فروشنده در گوشی تلفن همراه خود، مدعی میشود که تراکنش بانکی با موفقیت انجام شده و پیامک فروشنده با تأخیر برای وی ارسال میشود و در نهایت به همراه جنس خریداری شده از محل متواری میشود.
این مقام انتظامی اظهار کرد: با اقدامات فنی و تخصصی کارآگاهان پلیس آگاهی، متهم شناسایی و با هماهنگی مقام قضایی دستگیر و به مقر انتظامی انتقال یافت.
وی تصریح کرد: متهم دستگیرشده در ابتدا منکر هرگونه جرمی بود ولی پس از مواجهه حضوری با شاکی و مشاهده مستندات غیرقابل انکار پلیس به بزه انتسابی خود مبنی بر کلاهبرداری از شاکی با استفاده از برنامه رسیدساز جعلی در تلفن همراه خود اعتراف کرد.
سرهنگ مشهدی با اشاره به اعتراف متهم به کلاهبرداری از ۳ نفر از شهروندان با همین ترفند، تصریح کرد: متهم پس از تشکیل پرونده مقدماتی برای سیر مراحل قانونی راهی دادسرا شد.
وی گفت: متهم دیگری نیز که با همین ترفند از شهروندان کلاهبرداری کرده بود توسط مأموران دایره تجسس کلانتری ۱۱ جانبازان شناسایی و دستگیر شد که این متهم نیز به ۴ فقره کلاهبرداری از شهروندان با این شگرد اعتراف کرد.
فرمانده انتظامی شهرستان کاشمر در خصوص افزایش این نوع کلاهبرداری هشدار داده و از شهروندان خواست در معاملات خود از درگاه های مالی معتبر استفاده کرده و هرگونه مورد مشکوک در این زمینه را از طریق شماره تلفن ۱۱۰ به پلیس اعلام کنند.
وی در ادامه گفت: ماموران پلیس امنیت اقتصادی در اجرای طرح مبارزه با قاچاق کالا و ارز، به همراه کارشناسان اداره صنعت، معدن و تجارت در بازرسی از یک واحد صنفی متخلف، موفق به کشف موادغذایی احتکاری شدند.
وی افزود: کالاهای احتکارشده شامل؛ برنج، قند بستهبندی، روغن و مواد شوینده میباشد که بنابر اعلام کارشناسان ارزش ریالی آن ۴ میلیارد و ۵۶۶ میلیون ریال برآورد شده است.
فرمانده انتظامی شهرستان کاشمر با اشاره به معرفی یک متهم به مراجع قضایی، تصریح کرد: مالکان واحدهای صنفی مکلف باید لیست کالاهای موجود در انبارهای خود را در سامانه جامع تجارت و سامانه جامع انبارهای اداره صمت شهرستان ثبت کنند.
انتهای پیام