معمای مصلح: کریس لیهنه و مأموریت غیرممکن OpenAI

کریس لیهنه یکی از بهترین افراد صنعت در پنهان کردن خبرهای بد است. او در دوران کلینتون، دستیار رسانه‌ای آل گور بود و در Airbnb، مدیر بحرانی بود که از هر گونه مشکل قانونی از اینجا تا بروکسل را مدیریت کرد — لیهنه می‌داند چگونه چیزها را بچرخاند. اکنون دو سال است که در شغلی شاید غیرممکن‌تر از همه مشغول است: به عنوان معاون سیاست جهانی OpenAI، کار او این است که جهان را متقاعد کند OpenAI واقعاً به دموکراتیزه کردن هوش مصنوعی اهمیت می‌دهد، در حالی که شرکت بیشتر رفتاری مانند تمام شرکت‌های فناوری دیگری که همیشه ادعا کرده‌اند متفاوت هستند، از خود نشان می‌دهد.

من ۲۰ دقیقه وقت داشتم تا با او در کنفرانس Elevate در تورنتو صحبت کنم — ۲۰ دقیقه برای گذشتن از مسائل از پیش تعیین شده و رسیدن به تناقض‌های واقعی که تصویر به دقت ساخته شده OpenAI را می‌گیرد. کار آسانی نبود یا کاملاً موفق نبود. لیهنه واقعاً در کارش خوب است. او قابل دوستی است. صدایش معقول است. او ابهام را می‌پذیرد. او حتی در مورد اینکه چگونه در ۳ صبح بیدار می‌شود و نگران این است که آیا این کارها واقعاً به نفع بشریت خواهد بود، صحبت می‌کند.

مشکل Sora و شخصیت‌های متوفی

اما نیت‌های خوب وقتی خیلی معنا ندارد که شرکت شما از منتقدان استناد می‌کند، مناطق کم‌برخوردار اقتصادی را از آب و برق خالی می‌کند و شخصیت‌های متوفی را زنده می‌کند تا برتری خود در بازار را نشان دهد.

مشکل Sora در واقع ریشه تمام مسائل دیگر است. ابزار تولید ویدیو که هفته گذشته معرفی شد، به نظر محتوای محفوظ شده را در خود داشت. این یک حرکت جسورانه برای شرکتی بود که قبلاً توسط نیویورک تایمز، تورنتو استار و نیمی از صنعت نشر متهم به سوءاستفاده شده بود. از دیدگاه تجاری و بازاریابی، این کار هوشمندانه بود. اپلیکیشن محدود به دعوت، به بالای فروشگاه اپلیکیشن‌ها صعود کرد، زیرا مردم نسخه‌های دیجیتالی از خودشان، مدیرعامل OpenAI، سام آلتمن، شخصیت‌هایی مانند پیکاچو و کارتمن «سات پارک»، و شخصیت‌های متوفی مانند توپاک شاکور را ایجاد کردند.

نکته کلیدی:
«چیزی که او از آن دوری کرد این بود که OpenAI ابتدا به دارندگان حقوق اجازه داد تا از استفاده کارشان برای آموزش Sora انصراف دهند، که معمولاً نحوه کاربرد حق تکثیر نیست. سپس، پس از اینکه OpenAI متوجه شد مردم از استفاده از تصاویر محفوظ لذت می‌برند، به مدلی تغییر داد که از قبل اجازه داده می‌شود. این تکرار نیست، این آزمایش است که چه میزان می‌توانید بدون مجازات عمل کنید.»

وقتی از او پرسیده شد چه چیزی OpenAI را تشویق کرده تا این نسخه جدید Sora را با این شخصیت‌ها معرفی کند، لیهنه گفت Sora یک فناوری چند منظوره است، مانند چاپگر، که خلاقیت را برای افراد بدون استعداد یا منابع دموکراتیزه می‌کند. حتی خود او که خودش را یک صفر خلاق توصیف می‌کند، اکنون می‌تواند ویدیو بسازد، گفت.

نگرانی‌های حقوقی و داخلی

طبیعتاً، این وضعیت یادآور ناراحتی ناشرانی است که OpenAI را متهم می‌کنند که بدون اشتراک در سود، کارشان را برای آموزش استفاده کرده است. وقتی من از لیهنه در مورد اینکه ناشران از اقتصاد خارج شده‌اند، پرسیدم، او از حق استفاده عادلانه یاد کرد، اصل حقوقی آمریکایی که باید حقوق خالق را با دسترسی عمومی به دانش متعادل کند. او آن را سلاح مخفی تسلط فناوری آمریکا نامید.

شاید. اما من اخیراً با آل گور مصاحبه کردم — رئیس سابق لیهنه — و فهمیدم که هر کسی می‌تواند ساده‌ترین چیز را از ChatGPT بخواهد به جای خواندن مقاله من در TechCrunch. «این تکراری است» گفتم، «اما همچنین جایگزینی است.»

لیهنه گوش کرد و دیگر حرف نزد. «همه ما باید این را حل کنیم» گفت. «واقعاً ساده و سطحی است که در اینجا روی صحنه بنشینیم و بگوییم باید مدل‌های درآمدی جدید پیدا کنیم. اما فکر می‌کنم ما این کار را خواهیم کرد.» (چیزی که من شنیدم این بود: «ما در حال ساختن راه است.»)

مسئله زیرساخت و جوامع کم‌برخوردار

سپس مسئله زیرساختی وجود دارد که کسی نمی‌خواهد صادقانه پاسخ دهد. OpenAI اکنون یک دانشگاه مراکز داده در آبیلن، تگزاس، اداره می‌کند و اخیراً در لوردستون، اوهایو، در همکاری با اوراکل و سافت‌بنک، یک مرکز داده بزرگ راه‌اندازی کرده است. لیهنه از پذیرش هوش مصنوعی به عنوان ورود برق یاد کرده است — گفت کسانی که دیرتر به آن دسترسی یافتند هنوز در حال جبران هستند — اما پروژه Stargate OpenAI به نظر می‌رسد در همان مناطق کم‌برخوردار اقتصادی برای راه‌اندازی مراکز با نیازهای عظیم به آب و برق هدف قرار گرفته است.

وقتی از او در ملاقات ما پرسیده شد که آیا این جوامع سود خواهند برد یا فقط هزینه‌ها را پرداخت خواهند کرد، لیهنه به گیگاوات‌ها و ژئوپلیتیک پرداخت. OpenAI به حدود یک گیگاوات انرژی در هفته نیاز دارد، گفت. چین سال گذشته ۴۵۰ گیگاوات علاوه بر ۳۳ تأسیسات هسته‌ای راه‌اندازی کرد. اگر دموکراسی‌ها می‌خواهند هوش مصنوعی دموکراتیک داشته باشند، باید رقابت کنند. «بهینه‌بینی من می‌گوید این کار سیستم‌های انرژی ما را مدرن خواهد کرد،» گفت و تصویری از آمریکای بازساخته شده با شبکه‌های برقی دگرگون ترسیم کرد.

این الهام‌بخش بود، اما پاسخی در مورد اینکه آیا مردم لوردستون و آبیلن قیمت خدمات خود را در حالی که OpenAI ویدیوهایی از The Notorious B.I.G. تولید می‌کند، افزایش خواهند دید نبود. این قابل توجه است که تولید ویدیو انرژی‌برترین هوش مصنوعی است.

همچنین هزینه انسانی وجود دارد، که روز قبل از مصاحبه ما زندا ویلیامز در اینستاگرام وارد شد و از افراد ناشناس خواست تا دیگر ویدیوهای تولید شده هوش مصنوعی از پدر متوفی‌اش، رابین ویلیامز، را برایش نفرستند. «شما هن نمی‌سازید،» نوشت. «شما کالباس‌های وحشتناک و پرپردازش از زندگی انسان‌ها می‌سازید.»

واکنش کارکنان OpenAI

وقتی از من در مورد نحوه تطبیق این آسیب شخصی با مأموریت شرکت پرسیده شد، لیهنه با صحبت در مورد فرآیندها، از جمله طراحی مسئولانه، چارچوب‌های آزمایشی و همکاری‌های دولتی، پاسخ داد. «برای این چیزها دستورالعملی وجود ندارد، درست است؟»

در برخی لحظات لیهنه آسیب‌پذیری نشان داد و گفت که مسئولیت‌های بزرگی که با تمام کارهای OpenAI همراه است را درک می‌کند.

چه این لحظات برای مخاطب طراحی شده باشند یا نه، من به او باور دارم. در واقع، من تورنتو را ترک کردم و فکر کردم یک کلاس عالی از پیام‌رسانی سیاسی را دیده‌ام — لیهنه یک سوزن غیرممکن را از میان می‌گذراند و از سؤالات در مورد تصمیمات شرکت که ممکن است با آنها هم نظر نباشد، دوری می‌کند. سپس خبری شکل گرفت که این تصویر پیچیده را پیچیده‌تر کرد.

ناتان کالوین، وکیلی که در یک سازمان غیرانتفاعی تحت عنوان Encode AI سیاست هوش مصنوعی را پیگیری می‌کند، آشکار کرد که همان زمانی که من با لیهنه در تورنتو صحبت می‌کردم، OpenAI یک نفر از پلیس شهرستان را به خانه کالوین در واشنگتن دی.سی. فرستاد تا یک فراخوان را در زمان شام به او بدهد. آنها پیام‌های خصوصی او با قانون‌گذاران کالیفرنیا، دانشجویان دانشگاه و کارکنان سابق OpenAI را می‌خواستند.

تحلیل:
«اما چیزی که بیشتر اهمیت دارد این است که حتی خود کارکنان OpenAI نسبت به آنچه در حال تبدیل شدن به آن هستند، نگران هستند. همان‌طور که همکار من، مکس، هفته گذشته گزارش داد، تعدادی از کارکنان فعلی و سابق پس از انتشار Sora 2 به رسانه‌های اجتماعی رفتند و نگرانی‌های خود را بیان کردند.»

از جمله بوآز باراک، یک محقق OpenAI و استاد دانشگاه هاروارد، که در مورد Sora 2 نوشت: «از نظر فنی شگفت‌انگیز است اما هنوز خیلی زود است که خود را در مورد جلوگیری از مشکلات دیگر اپلیکیشن‌های رسانه‌های اجتماعی و ویدیوهای جعلی تبریک بگوییم.»

در جمعه، جاش آچیام — رئیس تطابق مأموریت OpenAI — چیزی حتی قابل توجه‌تر در مورد ادعا کالوین توییت کرد. با پیش‌گفتاری که گفت «احتمالاً خطری برای کل شغل من است،» آچیام ادامه داد: «ما نمی‌توانیم کارهایی انجام دهیم که ما را به یک قدرت وحشتناک تبدیل کند به جای یک قدرت فضیلتمند. ما وظیفه‌ای داریم و مأموریتی برای تمام بشریت. سطح دستیابی به این وظیفه بسیار بالاست.»

ارزش فکر کردن دارد. یک مدیر OpenAI به طور عمومی در مورد اینکه آیا شرکت او در حال تبدیل شدن به «یک قدرت وحشتناک به جای یک قدرت فضیلتمند» است سؤال می‌کند، با اینکه یک رقیب به سؤالات یا یک خبرنگار اشاره کند، برابر نیست. این فردی است که تصمیم گرفته در OpenAI کار کند، به مأموریتش باور دارد و اکنون با وجود خطر حرفه‌ای، یک بحران وجدان را اعتراف می‌کند.

این یک لحظه تفکیک‌کننده است، که تناقض‌های آن ممکن است فقط با پیشرفت OpenAI به سمت هوش مصنوعی عمومی بیشتر شود. این همچنین باعث می‌شود فکر کنم که سؤال واقعی این نیست که آیا کریس لیهنه می‌تواند مأموریت OpenAI را بفروشد. سؤال این است که آیا دیگران — از جمله، به طور اساسی، دیگرانی که در آنجا کار می‌کنند — هنوز به آن باور دارند.