Image

انتقاد از استفاده هوش مصنوعی در مستند «Roadrunner» مورگان نویل و شرکت Tilly Norwood

📋 خلاصه مقاله:

دومینیک لیس، کارشناس هوش مصنوعی، استفاده از صدای مصنوعی آنتونی بوردین در مستند «رودرانر» را نقد کرده و بر اهمیت شفافیت و رضایت در استفاده از هوش مصنوعی تأکید دارد. او به چالش‌های اخلاقی و تأثیرات آن بر مستندسازی و مخاطبان اشاره می‌کند.

دومینیک لیس، کارشناس هوش مصنوعی، اظهار داشت که تصمیم مورگان نویل برای بازسازی صدای آنتونی بوردین با کمک هوش مصنوعی در مستند «رودرانر» «کاملاً وحشتناک» بود.

تأثیر خودکشی بوردین

بوردین در سال ۲۰۱۸ با خودکشی درگذشت. این اتفاق تأثیر عمیقی بر جامعه هنری و طرفداران او گذاشت.

نیت‌های پشت فیلم رودرانر

لیس افزود: «نویل می‌خواست این کار مانند یک ادای احترام، تقریباً یک مرثیه باشد. این فیلم پر از نیت‌های خوب است. او می‌خواست به نظر برسد که بوردین از دنیای مردگان صحبت می‌کند، مانند ‘سانست بلوار’.»

خواندن ایمیل بوردین

در این فیلم، هنرمند دیوید چو ایمیلی را می‌خواند که سرآشپز مشهور کمی قبل از مرگش برای او نوشته بود. سپس صدای «بوردین» ادامه می‌دهد و این لحظه‌ای احساسی را برای بینندگان ایجاد می‌کند.

«مخاطبان شروع به فکر کردند که مشکلی وجود دارد. چه کسی در دنیا خودش را در حال خواندن یک ایمیل ضبط می‌کند؟!» نویل پاسخ داد: «باشه، اعتراف می‌کنم. من از یک صدای مصنوعی استفاده کردم.» با این حال، او به مخاطبان اطلاع نداده بود که این کار را انجام داده است. علاوه بر این، به منتقدانش گفت: «من از این فناوری در سه جای دیگر این فیلم استفاده کرده‌ام و به شما نمی‌گویم کجا.»

آسیب به شهرت نویل

در کنفرانس اخلاق در فیلم‌سازی مستند در جشنواره بین‌المللی فیلم مستند جی.هلاوا، لیس گفت که آسیب به شهرت نویل «بسیار، بسیار عمیق» بوده است.

شفافیت و رضایت در استفاده از هوش مصنوعی

او استدلال کرد که عدم شفافیت در استفاده از هوش مصنوعی می‌تواند رابطه با بینندگان را «متلاشی» کند. مسئله دیگر رضایت است.

در میانه جنجال‌های «Roadrunner»، نویل ادعا کرد: «من از همسر سابق [بوردین] پرسیدم و او گفت که این کار خوب است.» سپس او پاسخ داد: «نه، من نگفتم.» این موضوع بیشتر اعتبار او را زیر سوال برد.

شرکت تولیدی متمرکز بر هوش مصنوعی

در سخنرانی اصلی در جشنواره چک، لیس همچنین به شرکت تولیدی متمرکز بر هوش مصنوعی Particle 6 اشاره کرد. این شرکت که پیش‌تر پشت سر «بازیگر هوش مصنوعی» جنجالی تیلی نورود بود، اکنون بر مستندهای تاریخی نیز تمرکز دارد.

او گفت: “گفتند تیلی نورود توسط عوامل هالیوود پذیرفته خواهد شد و در فیلم‌ها بازی خواهد کرد. اما آنها همچنین مستندها را به عنوان بخشی عمده از کسب‌وکار آینده خود می‌بینند. این کار با بازسازی‌های تاریخی آغاز می‌شود.” او نمایشنامه شرکت را نشان داد و تلاش‌های آنها را “خنده‌دار” توصیف کرد.

او افزود: “بردگان در مصر باستان حوله‌های سفید روشن پوشیده‌اند، انگار که تازه از سونا بیرون آمده‌اند یا چیزی شبیه به آن. این همان چیزی است که پارتیکل ۶ امیدوار است تا به مستندسازانی که در این حوزه از تلویزیون و مستندهای تاریخی کار می‌کنند، جذب کند.” بسیاری از شرکت‌ها امیدوارند که یک بیانیه اخلاقی “اعتماد ایجاد کند”. او به جنی، که در مستندها و بازسازی‌های تاریخی تخصص دارد، اشاره کرد.

آن‌ها «فرمان‌های نسل» خود را دارند. این یک کد اخلاقی عمومی است که «دقت تاریخی، شفافیت، انصاف در نمایش و احترام به شباهت‌های واقعی انسانی» را ترویج می‌کند. با این حال، باید بسیار مراقب باشیم که شرکت‌ها اخلاق خود را به عنوان بخشی از تبلیغات خود جلوه دهند.

استفاده از صدا در مستندها

بازگشت به موضوع دستکاری صدا، لیس به مستند نشنال جئوگرافیک «استقامت» اشاره کرد. این مستند مأموریت ارنست شکلتون در سال‌های ۱۹۱۴-۱۹۱۷ به قطب جنوب را به تصویر می‌کشد. سازندگان آن تصمیم گرفتند صدای او را بازسازی کنند و در پایان تیتراژ یک توضیح اضافه کردند.

شفافیت در استفاده از هوش مصنوعی

تهیه‌کننده روث جانستون باید در نظر می‌گرفت که رابطه‌اش با مخاطب چگونه است. او می‌پرسید: «من از هوش مصنوعی در فیلمم استفاده کرده‌ام. چه باید بکنم؟» او به وضوح بیان می‌کند که این صداها با استفاده از هوش مصنوعی بازسازی شده‌اند. لیس تأکید کرد که «شفافیت یکی از مسائل اخلاقی اصلی در استفاده از هوش مصنوعی تولیدی توسط مستندسازان خواهد بود.»

با این حال، ایجاد صدا، به‌ویژه برای شخصیت‌های تاریخی، می‌تواند چالش‌برانگیز باشد. فیلم کوتاه “تاریخ به ما چیزی نخواهد آموخت” اثر یان ره‌وینکل که در جشنواره نمایش داده شد، شامل هیتلر است.

چالش‌های ایجاد آواتارهای صوتی

وقتی آواتار انسانی یا کلون صدای هوش مصنوعی خود را ایجاد می‌کنید، این یک دارایی پایدار است که برای همیشه وجود خواهد داشت. اما چه کسی آن را کنترل می‌کند؟ مستندسازان ممکن است فکر کنند نیازی به نگرانی ندارند، زیرا فیلم خود را ساخته‌اند. اما این یک مدل دقیق از صدای آدولف هیتلر است که در دسترس است و هر کسی می‌تواند از آن استفاده کند. اخلاقیات به کل فناوری گسترش می‌یابد، نه فقط به خود فیلمسازان.

تصمیم‌گیری‌های اخلاقی در بازسازی صدا

فلیکس مولر با معضل مشابهی در “یود زوس ۲.۰: از تبلیغات نازی تا یهودستیزی آنلاین” مواجه شد. او در نهایت تصمیم گرفت صدای هنری فورد را بازسازی نکند.

«او یکی از ثروتمندترین مردان جهان در دهه‌های ۱۹۲۰ و ۱۹۳۰ بود و یک ضدیهودی، که برخی شباهت‌ها با زمان حال دارد. او به این سند جعلی، ‘پروتکل‌های بزرگان صهیون’ چسبید»، لیس توضیح داد.

تأثیر نوشته‌های ضدیهودی هنری فورد

آن‌ها فکر کردند: ‘آیا ممکن است هنری فورد نوشته‌های ضدیهودی خود را بخواند؟’ این کاملاً نفرت‌انگیز است. اما به عنوان یک فیلمساز، می‌خواهید نشان دهید که ضدیهودیت در آمریکا در آن زمان چقدر نفرت‌انگیز بود. آن را به من نشان دادند و به دلایل مختلفی نگران شدم. واضح است که یک ضدیهودی می‌تواند این را استخراج کرده و در تبلیغات ضدیهودی قرن بیست و یکم استفاده کند.

چالش‌های مستندسازان در استفاده از هوش مصنوعی

او افزود: «این مسئله‌ای مهم برای مستندسازان است که باید در نظر بگیرند. من این فرصت را دارم که از هوش مصنوعی مولد استفاده کنم. این ممکن است راهی زیبا برای تقویت تأثیر خلاقانه فیلمم باشد. اما می‌توانم در هر زمانی تصمیم بگیرم که این کار درست نیست.»

او به مثال‌هایی از استفاده از هوش مصنوعی در مستندهایی مانند “به چچن خوش آمدید” اشاره کرد. در این مستندها، دیپ‌فیک‌ها هویت فعالان همجنس‌گرا و لزبین را که ممکن بود کشته شوند، پنهان کردند. او گفت: «در عصر هوش مصنوعی، مخاطبان به طور فزاینده‌ای آگاه هستند که آنچه روی صفحه می‌بینند ممکن است واقعی نباشد. اصالت از زمان پیدایش فیلم‌سازی مستند یک مسئله بوده است. اما اکنون ما با مشکلی بسیار جدی‌تر روبرو هستیم.»

انتقاد از استفاده هوش مصنوعی در مستند «Roadrunner» مورگان نویل و شرکت Tilly Norwood