مدیرعامل گروه رسانه ای مهر در اوآنا:

هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد

هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد

به گزارش پارلمان ایران دات کام، مدیرعامل گروه رسانه ای مهر در نشست هیئت اجرائی اوآنا اظهار داشت: هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد و آنرا کارآمدتر و پاسخگوتر به نیازهای مخاطبان می کند.



به گزارش پارلمان ایران دات کام به نقل از مهر، محمدمهدی رحمتی، مدیرعامل گروه رسانه ای مهر در پنجاه و سومین نشست هیئت اجرائی اوآنا (سازمان خبرگزاری های آسیا و اقیانوسیه) با موضوع چالش های اخلاقی استفاده از هوش مصنوعی در صنعت رسانه – راهکارهای جهانی به ایراد سخنرانی پرداخت.
در ابتدا رحمتی اظهار داشت: خوشحالم که باردیگر به بهانه نشست های OANA دور یکدیگر جمع شده ایم و می توانیم در مورد موضوعات و چالش هایی که به عنوان مدیران خبرگزاری کشورهای مان با آن مواجه هستیم، صحبت نماییم. حال در این دوره از نشست های مان که مقرر است بیشتر در مورد هوش مصنوعی صحبت نماییم، من نیز فرصت را مغتنم دانستم تا در مورد این مساله جالب و چالش برانگیز، مقداری با شما صحبت کنم و نقطه نظرات خودرا با شما به اشتراک بگذارم.
وی افزود: به عنوان مقدمه بحث، بیایید با یک داستان شروع نماییم که ممکنست برای تعدادی از شما آشنا باشد. در سال ۲۰۱۶، مایکروسافت یک چت بات به نام TAY را معرفی نمود. ایده پشت TAY ساده بود؛ این چت بات قرار بود بوسیله تعامل با کاربران در توئیتر یاد بگیرد و هر چه بیشتر با افراد صحبت کند، در مکالمه ها بهتر شود. در BIO آن نیز نوشته شده بود؛ هرچه بیشتر با TAY صحبت کنید، باهوش تر می شود." اما اتفاقات برمبنای برنامه پیش نرفتند. تنها در عرض ۱۶ ساعت، مایکروسافت مجبور شد TAY را متوقف نماید برای اینکه این چت بات آغاز به ارسال پیام های نژادپرستانه و توهین آمیز کرد. TAY این پیام ها را از تعاملات کاربران یاد گرفته بود که این آزمایش را به یک فاجعه کامل تبدیل کرد.
مدیرعامل گروه رسانه ای مهر اظهار داشت: این مثال به ما نشان میدهد که وقتی هوش مصنوعی به درستی هدایت نشود، می تواند به سرعت منجر به مشکلات اخلاقی شود که به جامعه لطمه می زند.

ظهور فناوری دیپ فیک امر نگران کننده ای است

وی اضافه کرد: مورد دیگری که نگران کننده است، ظهور فناوری دیپ فیک است. هر کدام از ما به نحوی در کشور خود با این مشکل روبرو می باشیم. بطور مثال، مدتی پیش مصاحبه یک پزشک متخصص که در گذشته از نمایندگان مجلس ایران نیز بوده است، در مورد سلامت رهبر در رسانه های اجتماعی منتشر گردید. این پزشک متخصص در این ویدئو اعلام می کند که رهبر معظم انقلاب سلامتی شأن در خطر است و علائمی دارند که نشان دهنده عود بیماریهای گذشته او است. این مصاحبه نیز دیپ فیک بود و اساساً چنین حرفی درست نبود و گفته نیز نشد.
رحمتی اظهار داشت: در موردی دیگر، می خواهم برای شما یک ویدئو به نمایش بگذارم که طنز و جالب است. با بهره گیری از دیپ فیک، جنیفر لوپز در یک سریال قدیمی و محبوب ایران، به نام «خانه به دوش» که با حجاب حضور یافته است و بجای یکی از بازیگران آن، دیالوگ می گوید.
وی اضافه کرد: حال این سوال برای ما وجود دارد که اصلاً این هوش مصنوعی چیست و چگونه در رسانه ها استفاده می شود؟ هوش مصنوعی به استفاده از سیستم های کامپیوتری و الگوریتم ها برای انجام وظایفی اشاره دارد که به طور معمول نیاز به هوش انسانی دارند.
مدیرعامل گروه رسانه ای مهر اظهار داشت: در صنعت رسانه، هوش مصنوعی بطور فزاینده ای رایج شده است و کاربردهایی دارد که می توان به تشخیص اخبار جعلی، شخصی سازی محتوای برای خوانندگان، مدیریت رسانه های اجتماعی، هدف گذاری تبلیغات و بهینه سازی نحوه جستجو و یافتن محتوا اشاره نمود.
وی افزود: بااینکه این ها کاربردهای مفیدی هستند، اما همین طور باید از چالش ها و خطرات مرتبط با بهره گیری از هوش مصنوعی، خصوصاً از نظر اخلاقی، آگاه باشیم.
رحمتی با اشاره نقل قولی از هنری کیسینجر اظهار داشت: کیسینجر در کتاب «هوش مصنوعی و آینده بشریت» که با کمک همکاران خود نوشته است، می گوید: هوش مصنوعی نه فقط ظرفیت پردازش و تحلیل داده ها را به گونه ای بی سابقه گسترش می دهد، بلکه بطور بنیادین چالش هایی را در نحوه تصمیم گیری انسان ها، درک ما از جهان و حتی تعریف ما از مفهوم انسان بودن ایجاد می کند؛ این فناوری به ما نشان میدهد که قدرت خلاقیت، تجربه و قضاوت انسانی ممکنست نیاز به بازتعریف داشته باشد، چونکه ماشین ها در انجام وظایفی که پیش تر منحصراً برای انسان ها بود، از ما پیشی می گیرند. این امر پرسشی را مطرح می کند: در جهانی که هوش مصنوعی نقشی محوری ایفا می کند، چه چیزی انسان را از غیرانسان متمایز می کند؟.
وی اضافه کرد: در جایی دیگر از این کتاب، نگرانی هایی بیان می شود که به درستی از مخاطرات هوش مصنوعی خواهد بود. مواردی مانند نظارت و حریم خصوصی (استفاده گسترده از هوش مصنوعی در نظارت می تواند به نقض حریم خصوصی افراد منجر شود)، تصمیم گیری خودکار (تصمیم گیری های خودکار توسط هوش مصنوعی ممکنست بدون در نظر گرفتن جنبه های انسانی و اخلاقی انجام شود)، تبعیض و بی عدالتی (الگوریتم های هوش مصنوعی ممکنست به سبب داده های ناصحیح یا تعصبات موجود در داده ها، تصمیمات تبعیض آمیز بگیرند).

استفاده از هوش مصنوعی در جنگ و امنیت می تواند به افزایش خشونت و بی ثباتی منجر شود

رحمتی اظهار داشت: جنگ و امنیت یکی دیگر از این موارد است؛ استفاده از هوش مصنوعی در جنگ و امنیت می تواند به افزایش خشونت و بی ثباتی منجر شود. بتازگی نیز مشاهده کردیم که سفرای ۶۰ کشور در کره جنوبی گرد هم آمدند و توافقنامه ای امضا کردند که از گسترش هوش مصنوعی در صنایع حساس نظامی و اطلاعاتی تا حدی جلوگیری شود تا از این راه شاهد خطای هوش مصنوعی نباشیم.
وی اضافه کرد: تعدادی از دانشمندان معاصر نیز فلسفه و موجودیت هوش مصنوعی را از اساس ناصحیح و شیطانی می دانند. بطور مثال الکساندر دوگین، دانشمند حوزه علوم سیاسی که از قضا اهل روسیه نیز می باشد، در یکی از دیدارهای خود با یکی از روحانیون دانشمند ایرانی، آیت الله میرباقری گفته است: مدرنیته، که شامل فناوری های پیشرفته ای همچون هوش مصنوعی است، برای من یک ایدئولوژی ناقص و شیطانی است. این فناوری ها می توانند به نابودی سنت ها و ارزش های انسانی منجر شوند.
مدیرعامل گروه رسانه ای مهر با اشاره به صحبت های «دوگین» اظهار داشت: صحبت های دوگین برای ما اهالی فرهنگ و رسانه، زنگ خطری را به صدا در می آورد: خطر نابودی سنت ها و ارزش های انسانی! این مورد نیز در جای خود بحث مفصلی دارد که وقت پرداختن به آن وجود ندارد.
وی افزود: حال که چند مثال از اشتباهات هوش مصنوعی را بررسی کردیم، بیایید به تعدادی از مسائل اخلاقی که هنگام استفاده از هوش مصنوعی در صنعت رسانه ها مطرح می شود که اتفاقاً برای ما ایجاد چالش هایی جدی می کند.
مدیرعامل گروه رسانه ای مهر با اشاره به چالش های استفاده از هوش مصنوعی در صنعت رسانه اظهار داشت: شفافیت الگوریتمی یکی از این چالش ها محسوب می شود. سیستم های هوش مصنوعی اغلب مانند یک "جعبه سیاه" عمل می کنند، به این معنا که حتی متخصصان نیز همیشه نمی فهمند که چگونه به تصمیمات خاصی می رسند. این نبود شفافیت می تواند اعتماد مردم به هوش مصنوعی را کم کند، خصوصاً زمانی که برای ارائه اخبار یا اطلاعات استفاده می شود.
وی اضافه کرد: تعصب و تبعیض از دیگر چالش های امکان دارد. سیستم های هوش مصنوعی از داده ها یاد می گیرند و اگر این داده ها دارای تعصبات باشند، هوش مصنوعی می تواند این تعصبات را منعکس کرده و حتی تقویت کند. به عنوان مثال، سیستم های هوش مصنوعی ممکنست بطور ناخودآگاه تعصبات نژادی، جنسیتی یا سیاسی را در محتوایی که تولید می کنند، گسترش دهند. این می تواند به نتایج ناعادلانه و مضر منجر شود.

هوش مصنوعی می تواند مقالات خبری را به سرعت ایجاد کند

رحمتی اظهار داشت: مسائل حریم خصوصی از دیگر چالش های موجود استفاده از هوش مصنوعی در صنعت رسانه محسوب می شود. سیستم های هوش مصنوعی اغلب داده های شخصی زیادی را جمع آوری و تحلیل می کنند. در صورتیکه این می تواند به شرکت های رسانه ای کمک نماید محتوای شخصی سازی شده تری عرضه کنند، اما همین طور نگرانی های حریم خصوصی را به همراه دارد. شرکتها باید بسیار مراقب باشند که چگونه از این داده ها استفاده می نمایند تا از نقض حقوق حریم خصوصی افراد جلوگیری نمایند.
وی با اشاره به اعتماد به اخبار تولید شده توسط هوش مصنوعی اظهار داشت: هوش مصنوعی می تواند مقالات خبری را به سرعت بوجود آورد، اما این لزوماً به این معنا نیست که اطلاعات قابل اعتماد هستند. مردم ممکنست آغاز به شک کردن در مورد اعتبار اخبار کنند اگر بدانند که این اخبار ازطریق یک ماشین تولید شده اند نه یک روزنامه نگار انسانی.
مدیرعامل گروه رسانه ای مهر با اشاره به اتکای بیش از اندازه به هوش مصنوعی اظهار داشت: با افزایش نقش هوش مصنوعی در انجام وظایف بیشتر، خطر این وجود دارد که ما بیش از اندازه به آن متکی شویم و تفکر انتقادی، خلاقیت و تحلیل های انسانی که روزنامه نگاران ارائه می دهند را از دست بدهیم. این می تواند منجر به کاهش کیفیت کلی رسانه ها شود.
وی با اشاره به پخش اطلاعات ناصحیح اظهار داشت: سیستم های هوش مصنوعی، اگر به دقت نظارت نشوند، می توانند به سرعت اطلاعات ناصحیح را پخش کنند، خصوصاً در زمان بحران ها. این می تواند نتایج خطرناکی داشته باشد، مانند ایجاد وحشت یا سردرگمی در بین مردم.
رحمتی با اشاره به مسائل حقوقی و مسئولیت پذیری اظهار داشت: اگر یک سیستم هوش مصنوعی اشتباه کند، مانند انتشار اخبار جعلی یا محتوای تبعیض آمیز، چه کسی مسئول است؟ شرکت توسعه دهنده هوش مصنوعی، رسانه، یا شخص دیگری؟ هم اکنون چارچوب های قانونی روشنی برای پاسخ به این سوالات وجود ندارد.
وی با اشاره به از دست دادن شغل ها اظهار داشت: با آنکه هوش مصنوعی وظایف بیشتری را در صنعت رسانه ها بر عهده می گیرد، ترس از از دست دادن خیلی از مشاغل، خصوصاً برای روزنامه نگاران و تولیدکنندگان محتوا وجود دارد. این می تواند تنوع دیدگاه ها در رسانه ها و کیفیت محتوای تولید شده را تحت تأثیر قرار دهد.
مدیرعامل گروه رسانه ای مهر به موضوع تأثیرگذاری بر افکار عمومی اشاره نمود و اظهار داشت: سازمان های رسانه ای ممکنست از هوش مصنوعی برای ایجاد محتوایی بهره گیرند که بمنظور تأثیرگذاری یا دستکاری افکار عمومی طراحی شده است، که می تواند دموکراسی و اعتماد عمومی را تضعیف کند.
وی با اشاره به راه حل ها و نقش همکاریهای بین المللی اظهار داشت: با در نظر گرفتن تمام این چالش ها، سوال بزرگ این است که: چه کاری می توانیم انجام دهیم تا نگرانی های اخلاقی هوش مصنوعی در رسانه ها را برطرف کنیم؟
مدیرعامل گروه رسانه ای مهرگفت: ما این فرصت را داریم که به عنوان یک جامعه جهانی، و خصوصاً در قالب سازمان خبرگزاری های آسیا و اقیانوسیه (اوآنا)، نقش مهمی ایفا نماییم در تعریف و ایجاد راهنماهای اخلاقی.
وی با اشاره به ایجاد راهنماهای اخلاقی جهانی اظهار داشت: لازم است که قوانین و مقررات واضحی برای روش استفاده اخلاقی از هوش مصنوعی در رسانه ها وضع نماییم. اوآنا می تواند به خبرگزاری های عضو خود کمک نماید تا دانش و بهترین روش ها را به اشتراک گذارند تا اطمینان حاصل شود که هوش مصنوعی بطور مسئولانه و شفاف استفاده می شود.

اوآنا می تواند بستری برای تدوین سیاست های مشترک میان خبرگزاری ها فراهم کند

رحمتی به آموزش حرفه ای های رسانه ای اشاره نمود و اظهار داشت: روزنامه نگاران، ویراستاران و سایر حرفه ای های رسانه ای نیاز به آموزش در مورد روش استفاده اخلاقی از هوش مصنوعی دارند. اوآنا می تواند نقش پیشرو در سازماندهی کارگاه ها و جلسات آموزشی در کشورهای عضو ایفا کند تا آگاهی در مورد استفاده مسئولانه از هوش مصنوعی افزایش یابد.
وی با اشاره به نظارت بر سیستم های هوش مصنوعی اظهار داشت: ما نیاز به سیستم هایی داریم که بطور مداوم هوش مصنوعی را برای شناسایی تعصبات یا اشتباهات ممکن نظارت کنند. این نوع نظارت بین المللی، با حمایت اوآنا، می تواند به اطمینان از دقت و انصاف این سیستم ها کمک نماید.
رحمتی به تدوین سیاست های مشترک اشاره نمود و اظهار داشت: اوآنا می تواند بستری برای تدوین سیاست های مشترک میان خبرگزاری ها فراهم آورد تا استفاده اخلاقی از هوش مصنوعی در رسانه ها ترویج شود. با همکاری یکدیگر، می توانیم محیطی رسانه ای ایجاد نماییم که در آن هوش مصنوعی به بهبود کیفیت، اعتماد و مسئولیت پذیری کمک نماید.
وی اضافه کرد: هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد و آنرا کارآمدتر و پاسخگوتر به نیازهای مخاطبان می کند. اما همانطور که دیدیم، همین طور با خطرات جدی، خصوصاً از نظر اخلاقی، هم راه است. به این علت همکاریهای بین المللی بسیار اهمیت دارد. با همکاری بوسیله پلت فرم هایی مانند اوآنا، می توانیم قوانین و سیستم های لازم را برای اطمینان از استفاده مسئولانه از هوش مصنوعی توسعه دهیم، که هم صنعت رسانه و هم عموم مردم را محافظت می کند.
رحمتی اظهار داشت: ما با همکاری یکدیگر، حتما می توانیم قدمهای مهم و قابل توجهی در امتداد غلبه بر مخاطرات جدی هوش مصنوعی برداریم. از این روست که من تاکید بر همکاریهای نزدیک مانند انتقال تجربه، وضع قوانین تنظیم گر ناظر به هوش مصنوعی و همین طور برگزاری دوره های آموزشی مشترک بین خبرگزاری ها می کنم، چونکه با همکاری یکدیگر حتما می توانیم خیلی بهتر Newsroom های خودرا در راستای آگاهی بیشتر نسبت به هوش مصنوعی و راه های استفاده اخلاق مدارانه از آن سوق دهیم.
وی اضافه کرد: در آخر می خواهم همانند اجلاس قبل، یاد مردم مظلوم غزه را گرامی بدارم. مردمی که تحت شدیدترین حملات غیرانسانی و نسل کشی، مقاومت خودرا ادامه می دهند و به روزهای آزادی و صلح هنوز امیدوارند. ما غزه را فراموش نمی نماییم.


منبع:

1403/07/04
09:09:39
0.0 / 5
236
تگهای خبر: آموزش , برنامه , سیستم , طرح
این مطلب را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۹ بعلاوه ۲