OpenAI در برابر کالیفرنیا: آیا SB 1047 از عموم مردم محافظت میکند یا نوآوری در هوش مصنوعی را متوقف میکند؟
سناتور ایالت کالیفرنیا، اسکات وینر و شرکت OpenAI در یک بحث داغ بر سر لایحه سنای 1047 (SB 1047)، که قانونی پیشنهادی است و به دنبال تنظیم توسعه و پیادهسازی مدلهای هوش مصنوعی (AI) میباشد، قرار دارند.
وینر این لایحه را در ماه فوریه معرفی کرد و از شرکتهای هوش مصنوعی خواسته است تا ارزیابیهای ایمنی دقیق از مدلهای خود قبل از انتشار به عموم انجام دهند.
با وجود مخالفت برجسته OpenAI، وینر مدعی است که انتقادات آنها بیاساس هستند. در یک بیانیه مطبوعاتی در 21 اوت، او تأکید کرد که این لایحه “هیچ بند از لایحه را نقد نمیکند” و موضع خود را بر این که این لایحه برای اطمینان از ایمنی عمومی و امنیت ملی ضروری است، تأیید کرد.
استدلال OpenAI: آیا SB 1047 نوآوری را متوقف میکند؟
توسعهدهنده ChatGPT، OpenAI مخالفت خود با SB 1047 را در نامهای به وینر و فرماندار کالیفرنیا گوین نیوزوم اعلام کرده است.
جیسون کوان، مسئول ارشد استراتژی OpenAI، در نامه هشدار داده است که این لایحه میتواند نوآوری را متوقف کرده و استعدادها را از کالیفرنیا، ایالتی که به مدت طولانی رهبر جهانی در صنعت فناوری بوده است، دور کند. طبق گزارش بلومبرگ .
کوان استدلال کرد که بخش هوش مصنوعی هنوز در مراحل اولیه خود است و قوانین بسیار محدود کننده دولتی میتواند رشد آن را متوقف کند. او پیشنهاد داد که قوانین فدرال به جای قوانین ایالتی برای تنظیم توسعه هوش مصنوعی مناسبتر هستند.
وینر، اما، این نگرانیها را به عنوان “استدلالی خستهکننده” رد کرد و آنها را به اعتراضات مطرح شده توسط صنعت فناوری هنگام تصویب قانون حفظ حریم خصوصی دادههای کالیفرنیا تشبیه کرد که در نهایت به صورت نگرانکنندهای ظهور نیافت.
او اذعان کرد که “به طور ایدهآل” کنگره باید به تنظیم هوش مصنوعی بپردازد، اما با توجه به عدم مشارکت قبلی کنگره با قوانین حفظ حریم خصوصی دادهها، ابراز تردید کرد.
وینر بر لزوم اقدام در سطح دولتی تأکید کرد و اظهار داشت که همانطور که با حفظ حریم خصوصی دادهها پیش آمد، با “عدم عمل کنگره، کالیفرنیاییها هیچ حفاظتی نخواهند داشت.”
SB 1047: آیا هوش مصنوعی خطر دارد؟
وینر دفاع خود از SB 1047 را با تأکید بر این که این لایحه تدبیری “بسیار منطقی” است که هدف آن اطمینان از این است که آزمایشگاههای بزرگ هوش مصنوعی، مانند OpenAI، متعهد به تست مدلهای خود در برابر خطرات ایمنی فاجعهبار، به پایان رساند.
او به همکاری گسترده با مدافعان منابع، Anthropic و دیگران در بهبود این لایحه اشاره کرد و تأکید کرد که این لایحه “به خوبی درجه بندی شده” و “شایسته اجرا شدن” است.
در حمایت از موضع وینر، یک نظرسنجی انجام شده توسط موسسه سیاست هوش مصنوعی (AIPI) از 4 تا 5 اوت، حاکی از حمایت قوی عمومی از این لایحه است.
از میان 1،000 رأیدهنده کالیفرنیایی که مورد بررسی قرار گرفتند، 70٪ با این لایحه موافق بودند و نگرانیهایی را مطرح کردند که مدلهای قدرتمند هوش مصنوعی میتوانند برای حملات سایبری یا توسعه سلاحهای بیولوژیکی مورد سواستفاده قرار گیرند.
تنها 16٪ از نظر مخالفان که معتقدند این لایحه میتواند نوآوری در هوش مصنوعی را در کالیفرنیا متوقف کرده و حامیان آن را به ایجاد ترس متهم کرده است، حمایت کردند.
علاوه بر این، 23٪ از رأیدهندگان معتقد بودند که این لایحه باید تعدیل شود تا از اثر ممکن منفی بر نوآوری هوش مصنوعی جلوگیری شود، که نشاندهنده برخی نگرانیها در مورد شدت این لایحه است.
به گفته وینر، این مقررات برای حفاظت از عموم در برابر خطرات احتمالی ناشی از سیستمهای پیشرفته هوش مصنوعی ضروری هستند. او مخالفت OpenAI را به خصوص معمایی دانست با توجه به تعهدات قبلی آنها به ارزیابیهای ایمنی.