گزارش فناوری مهر؛

هوش مصنوعی و معضل نابودی اعتماد عمومی

هوش مصنوعی و معضل نابودی اعتماد عمومی

به گزارش بی بی سرور، با توسعه روز افزون هوش مصنوعی مولد، چالش استفاده از این تکنولوژی برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپ فیک به مساله ای اساسی بدل شده است.


به گزارش بی بی سرور به نقل از مهر، تولید دیپ فیک (deep fake) یکی از توانمندی های هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده می شود. این اصطلاح هم فناوری و هم محتوای گمراه کننده ای که تولید می کند را در بر می گیرد. دیپ فیک ها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض می شود، محتوای منبع موجود را تغییر می دهند. آنها همینطور قادرند محتوایی کاملا تازه ایجاد کنند که در آن شخصی درحال انجام یا گفتن مطلبی است که در حقیقت نگفته و حقیقت ندارد. بزرگ ترین خطری که دیپ فیک ایجاد می کند، توانایی اش در انتشار اطلاعات نادرستی است که به نظر قابل اعتماد می آید. مورد دیگر نگرانی هایی است که در مورد احتمال دخالت دیپ فیک در انتخابات و تبلیغات انتخاباتی مطرح گردیده است. دیپ فیک ها درحالی که تهدید جدی هستند در مواردی مانند بازی های ویدئویی و برنامه های پشتیبانی مشتری و پاسخ به تماس گیرندگان، کاربردهای قانونی دارند. همان گونه که سابقاً اشاره شد، ویدیوهای دیپ فیک شامل فیلمهای دست کاری شده و مصنوعی هستند که تغییراتی را در چهره یا بدن افراد بوجود آورده یا کلاً هویت آنها را تغییر می دهد و هویت شخص دیگری را جایگزین می کند. یک نوع دیگر از دیپ فیک، جعل صدای افراد است که در مواردی می تواند بسیار خطرناک باشد. برای مثال مدیرعامل یک شرکت انرژی در انگلستان تلفنی از رئیس شرکت مادر خود دریافت کرده و از او مبلغ هنگفتی درخواست کرده بود و مشخص شد که فردی از دیپ فیک بهره برده و صدای مدیر واقعی را جعل کرده است. تصاویر دیپ فیک هم از انواع دیگر محتواهای جعلی است که بسیار واقعی به نظر آمده و ساخت آن برای کاربران کار سختی نیست. در یکی از نخستین تحقیقات در رابطه با این پدیده، فیسبوک ده ها حساب کاربری تحت حمایت دولت را پیدا کرد که از تصاویر جعلی بعنوان عکس پروفایل استفاده می کردند. شیوع محتوای جعلی یکی دیگر از خطرات هوش مصنوعی انتشار اطلاعات نادرست به سبب تعصبات و یا اشتباهات در منابع یادگیری آن است. هوش مصنوعی های مولد زبانی مانند «ChatGPT» بیشتر از انواع مدلهای دیگر آن احتمال انتشار اطلاعات نادرست را دارند. هوش مصنوعی مولد می تواند اطلاعات نادرست و جعلی را به شکل گسترده و مانند ویروس شیوع دهد. الگوریتم های هوش مصنوعی مولد می توانند متون، تصاویر و ویدیوهای جعلی ایجاد کنند که تمییز آن از محتوای واقعی خیلی سخت است. در دوره همه گیری ویروس کرونا، یکی از صدمه هایی که پس از ویروس روح و روان مخاطبان را هدف گرفته بود اخبار جعلی و شایعات بود. هوش مصنوعی مولد می تواند چالش های در ارتباط با انتشار اطلاعات نادرست و اخبار جعلی را چندین برابر کند و صدمه هایی مانند بازی دادن افکار و دیدگاه عمومی، تطهیر نامهای ناشایست و تخریب نامهای شایسته را به دنبال داشته باشد. حوزه های در معرض آسیب الگوریتم های هوش مصنوعی مولد، قادرند محتواهای تصویری و چندرسانه ای ایجاد کنند که کاملا ساختگی بوده و از محتوای واقعی کاملا دور هستند. دیپ فیک ها می توانند برای ایجاد مدارک جعلی، تقلید از افراد و انتشار محتواهای نامناسب و مخالف شئون استفاده شوند. تشخیص محتوای واقعی از محتوای غیرواقعی و تغییریافته کار دشواری است و این مساله می تواند پیامدهایی جدی در حوزه سیاست و انتخابات، سرگرمی و روزنامه نگاری داشته باشد. یکی دیگر از حوزه هایی که امکان دارد با دیپ فیک به خطر بیفتد، حوزه قضاوت است. با همه گیرشدن استفاده از هوش مصنوعی مولد، مجرمان و افراد دارای نیت سو با ساختن ویدئو و تصاویر جعلی قادرند فرآیند دادرسی را پیچیده تر کنند. حوادث مهم سیاسی و اجتماعی هم می تواند به بستری برای جولان سوء استفاده کنندگان از هوش مصنوعی مولد تبدیل گردد. انتخابات همانطور که اشاره شد، انتخابات و دموکراسی یکی از عرصه هایی است که در عصر جدید احتیاج به مراقبت های بیشتر دارد. انتخاب درست با تحقیق بر اساس اطلاعات صحیح صورت می گیرد و در غیر این صورت مردم بازیچه دست ذی نفعان خواهند شد. در چنین شرایطی کشورهایی که در معرض انتخابات قرار دارند مانند ایالات متحده آمریکا در معرض صدمه دیپ فیک هستند و به نظر می رسد قانون گذاران به تکاپوی تنظیم گری این حوزه خواهند افتاد یا متحمل صدمه های جبران ناپذیر خواهند شد! کشور چین، در خط مقدم مقابله با محتوای دیپ فیک در بیشتر نقاط جهان، مسئولین هنوز اقدامی در جهت مقابله با دیپ فیک و انتشار اخبار جعلی توسط هوش مصنوعی مولد نکرده اند و این به سبب شناخت کم آنها از این تکنولوژی نو است. مادامی که تکنولوژی پیچیده تر و در دسترس تر برای عموم می شود، مقابله با خطرات و صدمه های آن هم دشوارتر می شود. چین که یکی از بسترهای توسعه هوش مصنوعی مولد است تلاش دارد تا قبل از سایر کشورها به مقابله با صدمه های دیپ فیک برخیزد. این کشور اخیراً قوانین گسترده ای تصویب کرده که بر مبنای آن مطالب دست کاری شده باید رضایت شخصیت اصلی آن محتوا را داشته باشد و امضای آن شخص پای اثر باشد و جعلی بودن آن هم اعلام گردد. در این قوانین چین مسئولیت رد شایعات را بر عهده عرضه دهندگان خدمات ساخت محتواهای دیپ فیک گذاشته است. مشکلی که برای مقابله با فناوری جدید وجود دارد اینست که افرادی که قصد سوء استفاده دارند عموماً باهویت جعلی و یا بی هویت و مخفیانه دست به اقدامات نادرست می زنند. شناسایی آنها بنابراین آسان نیست، ازاین رو سایر کشورها هنوز موفق به تدوین قوانین تنظیم گرانه هوش مصنوعی مولد نشده اند. سخت گیری های زیاد هم امکان دارد آزادی کاربران را به خطر بیندازد که تا کنون کشوری مبادرت به اعمال محدودیت های شدید در این عرصه نکرده است. به قول کارشناسان با وجود موانعی که سر راه پکن قرار دارد، ثبات قدم کشور چین در این حوزه، به سایر کشورها کمک کرده تا مبادرت به مقابله با دیپ فیک کنند. سابقه ها بر این منوال است که قانون گذاران در سراسر دنیا ترجیح می دهند پیش از تدوین چارچوب های جدید، روندهای قانونی سایر کشورها را تقلید یا رد کنند. راویت دونان، محقق فوق دکترا و صاحب شرکت «Colaboeative AI» می گوید: «این عرصه برای تعیین سیاست جهانی سرنوشت ساز است، چونکه کشورها درحال رقابت اند تا در آخر مشخص شود که چه کسی قاعده و لحن این بازی را مشخص می کند.» دیپ فیک و برخی فواید با وجود همه چالش های ذکر شده برای این فناوری، دیپ فیک در خیلی از صنایع می تواند نویدبخش باشد. سال گذشته، پلیس هلند یک پرونده قدیمی سال ۲۰۰۳ قتل را با تشکیل آواتاری دیجیتالی از قربانی ۱۳ ساله و انتشار تصاویری از طریق رفتن او در بین گروهی از خانواده و دوستانش را باردیگر به جریان انداخت. این فناوری همینطور می تواند برای ساختن برنامه های طنز و سرگرمی، خریداران آنلاین لباس که می توانند با استفاده از این تکنولوژی لباس ها را در اتاق های تزئین مجازی امتحان کنند و انیمیشن سازان مفید باشد.


منبع:

1402/04/29
11:40:13
0.0 / 5
328
مطلب را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۳ بعلاوه ۳
BBServer بی بی سرور

bbserver.ir - مالکیت معنوی سایت بی بی سرور متعلق به مالکین آن می باشد