📋 خلاصه مقاله:
دومینیک لیس، کارشناس هوش مصنوعی، استفاده از صدای مصنوعی آنتونی بوردین در مستند «رودرانر» را نقد کرده و بر اهمیت شفافیت و رضایت در استفاده از هوش مصنوعی تأکید دارد. او به چالشهای اخلاقی و تأثیرات آن بر مستندسازی و مخاطبان اشاره میکند.
دومینیک لیس، کارشناس هوش مصنوعی، اظهار داشت که تصمیم مورگان نویل برای بازسازی صدای آنتونی بوردین با کمک هوش مصنوعی در مستند «رودرانر» «کاملاً وحشتناک» بود.
تأثیر خودکشی بوردین
بوردین در سال ۲۰۱۸ با خودکشی درگذشت. این اتفاق تأثیر عمیقی بر جامعه هنری و طرفداران او گذاشت.
نیتهای پشت فیلم رودرانر
لیس افزود: «نویل میخواست این کار مانند یک ادای احترام، تقریباً یک مرثیه باشد. این فیلم پر از نیتهای خوب است. او میخواست به نظر برسد که بوردین از دنیای مردگان صحبت میکند، مانند ‘سانست بلوار’.»
خواندن ایمیل بوردین
در این فیلم، هنرمند دیوید چو ایمیلی را میخواند که سرآشپز مشهور کمی قبل از مرگش برای او نوشته بود. سپس صدای «بوردین» ادامه میدهد و این لحظهای احساسی را برای بینندگان ایجاد میکند.
«مخاطبان شروع به فکر کردند که مشکلی وجود دارد. چه کسی در دنیا خودش را در حال خواندن یک ایمیل ضبط میکند؟!» نویل پاسخ داد: «باشه، اعتراف میکنم. من از یک صدای مصنوعی استفاده کردم.» با این حال، او به مخاطبان اطلاع نداده بود که این کار را انجام داده است. علاوه بر این، به منتقدانش گفت: «من از این فناوری در سه جای دیگر این فیلم استفاده کردهام و به شما نمیگویم کجا.»
آسیب به شهرت نویل
در کنفرانس اخلاق در فیلمسازی مستند در جشنواره بینالمللی فیلم مستند جی.هلاوا، لیس گفت که آسیب به شهرت نویل «بسیار، بسیار عمیق» بوده است.
شفافیت و رضایت در استفاده از هوش مصنوعی
او استدلال کرد که عدم شفافیت در استفاده از هوش مصنوعی میتواند رابطه با بینندگان را «متلاشی» کند. مسئله دیگر رضایت است.
در میانه جنجالهای «Roadrunner»، نویل ادعا کرد: «من از همسر سابق [بوردین] پرسیدم و او گفت که این کار خوب است.» سپس او پاسخ داد: «نه، من نگفتم.» این موضوع بیشتر اعتبار او را زیر سوال برد.
شرکت تولیدی متمرکز بر هوش مصنوعی
در سخنرانی اصلی در جشنواره چک، لیس همچنین به شرکت تولیدی متمرکز بر هوش مصنوعی Particle 6 اشاره کرد. این شرکت که پیشتر پشت سر «بازیگر هوش مصنوعی» جنجالی تیلی نورود بود، اکنون بر مستندهای تاریخی نیز تمرکز دارد.
او گفت: “گفتند تیلی نورود توسط عوامل هالیوود پذیرفته خواهد شد و در فیلمها بازی خواهد کرد. اما آنها همچنین مستندها را به عنوان بخشی عمده از کسبوکار آینده خود میبینند. این کار با بازسازیهای تاریخی آغاز میشود.” او نمایشنامه شرکت را نشان داد و تلاشهای آنها را “خندهدار” توصیف کرد.
او افزود: “بردگان در مصر باستان حولههای سفید روشن پوشیدهاند، انگار که تازه از سونا بیرون آمدهاند یا چیزی شبیه به آن. این همان چیزی است که پارتیکل ۶ امیدوار است تا به مستندسازانی که در این حوزه از تلویزیون و مستندهای تاریخی کار میکنند، جذب کند.” بسیاری از شرکتها امیدوارند که یک بیانیه اخلاقی “اعتماد ایجاد کند”. او به جنی، که در مستندها و بازسازیهای تاریخی تخصص دارد، اشاره کرد.
آنها «فرمانهای نسل» خود را دارند. این یک کد اخلاقی عمومی است که «دقت تاریخی، شفافیت، انصاف در نمایش و احترام به شباهتهای واقعی انسانی» را ترویج میکند. با این حال، باید بسیار مراقب باشیم که شرکتها اخلاق خود را به عنوان بخشی از تبلیغات خود جلوه دهند.
استفاده از صدا در مستندها
بازگشت به موضوع دستکاری صدا، لیس به مستند نشنال جئوگرافیک «استقامت» اشاره کرد. این مستند مأموریت ارنست شکلتون در سالهای ۱۹۱۴-۱۹۱۷ به قطب جنوب را به تصویر میکشد. سازندگان آن تصمیم گرفتند صدای او را بازسازی کنند و در پایان تیتراژ یک توضیح اضافه کردند.
شفافیت در استفاده از هوش مصنوعی
تهیهکننده روث جانستون باید در نظر میگرفت که رابطهاش با مخاطب چگونه است. او میپرسید: «من از هوش مصنوعی در فیلمم استفاده کردهام. چه باید بکنم؟» او به وضوح بیان میکند که این صداها با استفاده از هوش مصنوعی بازسازی شدهاند. لیس تأکید کرد که «شفافیت یکی از مسائل اخلاقی اصلی در استفاده از هوش مصنوعی تولیدی توسط مستندسازان خواهد بود.»
با این حال، ایجاد صدا، بهویژه برای شخصیتهای تاریخی، میتواند چالشبرانگیز باشد. فیلم کوتاه “تاریخ به ما چیزی نخواهد آموخت” اثر یان رهوینکل که در جشنواره نمایش داده شد، شامل هیتلر است.
چالشهای ایجاد آواتارهای صوتی
وقتی آواتار انسانی یا کلون صدای هوش مصنوعی خود را ایجاد میکنید، این یک دارایی پایدار است که برای همیشه وجود خواهد داشت. اما چه کسی آن را کنترل میکند؟ مستندسازان ممکن است فکر کنند نیازی به نگرانی ندارند، زیرا فیلم خود را ساختهاند. اما این یک مدل دقیق از صدای آدولف هیتلر است که در دسترس است و هر کسی میتواند از آن استفاده کند. اخلاقیات به کل فناوری گسترش مییابد، نه فقط به خود فیلمسازان.
تصمیمگیریهای اخلاقی در بازسازی صدا
فلیکس مولر با معضل مشابهی در “یود زوس ۲.۰: از تبلیغات نازی تا یهودستیزی آنلاین” مواجه شد. او در نهایت تصمیم گرفت صدای هنری فورد را بازسازی نکند.
«او یکی از ثروتمندترین مردان جهان در دهههای ۱۹۲۰ و ۱۹۳۰ بود و یک ضدیهودی، که برخی شباهتها با زمان حال دارد. او به این سند جعلی، ‘پروتکلهای بزرگان صهیون’ چسبید»، لیس توضیح داد.
تأثیر نوشتههای ضدیهودی هنری فورد
آنها فکر کردند: ‘آیا ممکن است هنری فورد نوشتههای ضدیهودی خود را بخواند؟’ این کاملاً نفرتانگیز است. اما به عنوان یک فیلمساز، میخواهید نشان دهید که ضدیهودیت در آمریکا در آن زمان چقدر نفرتانگیز بود. آن را به من نشان دادند و به دلایل مختلفی نگران شدم. واضح است که یک ضدیهودی میتواند این را استخراج کرده و در تبلیغات ضدیهودی قرن بیست و یکم استفاده کند.
چالشهای مستندسازان در استفاده از هوش مصنوعی
او افزود: «این مسئلهای مهم برای مستندسازان است که باید در نظر بگیرند. من این فرصت را دارم که از هوش مصنوعی مولد استفاده کنم. این ممکن است راهی زیبا برای تقویت تأثیر خلاقانه فیلمم باشد. اما میتوانم در هر زمانی تصمیم بگیرم که این کار درست نیست.»
او به مثالهایی از استفاده از هوش مصنوعی در مستندهایی مانند “به چچن خوش آمدید” اشاره کرد. در این مستندها، دیپفیکها هویت فعالان همجنسگرا و لزبین را که ممکن بود کشته شوند، پنهان کردند. او گفت: «در عصر هوش مصنوعی، مخاطبان به طور فزایندهای آگاه هستند که آنچه روی صفحه میبینند ممکن است واقعی نباشد. اصالت از زمان پیدایش فیلمسازی مستند یک مسئله بوده است. اما اکنون ما با مشکلی بسیار جدیتر روبرو هستیم.»




