بلاکچین

OpenAI در برابر کالیفرنیا: آیا SB 1047 از عموم مردم محافظت می‌کند یا نوآوری در هوش مصنوعی را متوقف می‌کند؟

سناتور ایالت کالیفرنیا، اسکات وینر و شرکت OpenAI در یک بحث داغ بر سر لایحه سنای 1047 (SB 1047)، که قانونی پیشنهادی است و به دنبال تنظیم توسعه و پیاده‌سازی مدل‌های هوش مصنوعی (AI) می‌باشد، قرار دارند.

وینر این لایحه را در ماه فوریه معرفی کرد و از شرکت‌های هوش مصنوعی خواسته است تا ارزیابی‌های ایمنی دقیق از مدل‌های خود قبل از انتشار به عموم انجام دهند.

با وجود مخالفت برجسته OpenAI، وینر مدعی است که انتقادات آنها بی‌اساس هستند. در یک بیانیه مطبوعاتی در 21 اوت، او تأکید کرد که این لایحه “هیچ بند از لایحه را نقد نمی‌کند” و موضع خود را بر این که این لایحه برای اطمینان از ایمنی عمومی و امنیت ملی ضروری است، تأیید کرد.

استدلال OpenAI: آیا SB 1047 نوآوری را متوقف می‌کند؟

توسعه‌دهنده ChatGPT، OpenAI مخالفت خود با SB 1047 را در نامه‌ای به وینر و فرماندار کالیفرنیا گوین نیوزوم اعلام کرده است.

جیسون کوان، مسئول ارشد استراتژی OpenAI، در نامه هشدار داده است که این لایحه می‌تواند نوآوری را متوقف کرده و استعدادها را از کالیفرنیا، ایالتی که به مدت طولانی رهبر جهانی در صنعت فناوری بوده است، دور کند. طبق گزارش بلومبرگ .

کوان استدلال کرد که بخش هوش مصنوعی هنوز در مراحل اولیه خود است و قوانین بسیار محدود کننده دولتی می‌تواند رشد آن را متوقف کند. او پیشنهاد داد که قوانین فدرال به جای قوانین ایالتی برای تنظیم توسعه هوش مصنوعی مناسب‌تر هستند.

وینر، اما، این نگرانی‌ها را به عنوان “استدلالی خسته‌کننده” رد کرد و آن‌ها را به اعتراضات مطرح شده توسط صنعت فناوری هنگام تصویب قانون حفظ حریم خصوصی داده‌های کالیفرنیا تشبیه کرد که در نهایت به صورت نگران‌کننده‌ای ظهور نیافت.

او اذعان کرد که “به طور ایده‌آل” کنگره باید به تنظیم هوش مصنوعی بپردازد، اما با توجه به عدم مشارکت قبلی کنگره با قوانین حفظ حریم خصوصی داده‌ها، ابراز تردید کرد.

وینر بر لزوم اقدام در سطح دولتی تأکید کرد و اظهار داشت که همانطور که با حفظ حریم خصوصی داده‌ها پیش آمد، با “عدم عمل کنگره، کالیفرنیایی‌ها هیچ حفاظتی نخواهند داشت.”

SB 1047: آیا هوش مصنوعی خطر دارد؟

وینر دفاع خود از SB 1047 را با تأکید بر این که این لایحه تدبیری “بسیار منطقی” است که هدف آن اطمینان از این است که آزمایشگاه‌های بزرگ هوش مصنوعی، مانند OpenAI، متعهد به تست مدل‌های خود در برابر خطرات ایمنی فاجعه‌بار، به پایان رساند.

او به همکاری گسترده با مدافعان منابع، Anthropic و دیگران در بهبود این لایحه اشاره کرد و تأکید کرد که این لایحه “به خوبی درجه بندی شده” و “شایسته اجرا شدن” است.

در حمایت از موضع وینر، یک نظرسنجی انجام شده توسط موسسه سیاست هوش مصنوعی (AIPI) از 4 تا 5 اوت، حاکی از حمایت قوی عمومی از این لایحه است.

از میان 1،000 رأی‌دهنده کالیفرنیایی که مورد بررسی قرار گرفتند، 70٪ با این لایحه موافق بودند و نگرانی‌هایی را مطرح کردند که مدل‌های قدرتمند هوش مصنوعی می‌توانند برای حملات سایبری یا توسعه سلاح‌های بیولوژیکی مورد سواستفاده قرار گیرند.

تنها 16٪ از نظر مخالفان که معتقدند این لایحه می‌تواند نوآوری در هوش مصنوعی را در کالیفرنیا متوقف کرده و حامیان آن را به ایجاد ترس متهم کرده است، حمایت کردند.

علاوه بر این، 23٪ از رأی‌دهندگان معتقد بودند که این لایحه باید تعدیل شود تا از اثر ممکن منفی بر نوآوری هوش مصنوعی جلوگیری شود، که نشان‌دهنده برخی نگرانی‌ها در مورد شدت این لایحه است.

به گفته وینر، این مقررات برای حفاظت از عموم در برابر خطرات احتمالی ناشی از سیستم‌های پیشرفته هوش مصنوعی ضروری هستند. او مخالفت OpenAI را به خصوص معمایی دانست با توجه به تعهدات قبلی آنها به ارزیابی‌های ایمنی.

نوشته های مشابه

دکمه بازگشت به بالا