در یک شکایت مهم، یکی از ساکنان جورجیا، مارک والترز، علیه OpenAI، خالقان ربات چت هوش مصنوعی، ChatGPT، اقدام قانونی می کند و آنها را به افترا متهم می کند.
این پرونده که گمان میرود اولین مورد در نوع خود باشد، مسئولیت هوش مصنوعی در انتشار اطلاعات نادرست را زیر سوال میبرد.
این اختلاف حول یک تحقیق روزنامه نگاری توسط فرد ریهل – سردبیر نشریه اسلحه آمولند می چرخد. ریهل در حال تحقیق در مورد یک پرونده واقعی بود، بنیاد اصلاحیه دوم (SAF) در مقابل فرگوسن، جایی که SAF – یک سازمان غیرانتفاعی آمریکایی که از حقوق اسلحه حمایت می کند – دادستان کل باب فرگوسن را به سوء استفاده از قدرت خود برای محکوم کردن حقوق سلاح متهم می کرد. آلن گوتلیب، بنیانگذار SAF، یکی از شاکیان است.
این جایی است که ChatGPT وارد می شود و اطلاعات نادرست درباره شکایت آلن گوتلیب از والترز به دلیل “کلاهبرداری و اختلاس وجوه” از SAF را ارائه می دهد. این پاسخ کامل است:
“متهم مارک والترز (“والترز”) فردی است که در جورجیا زندگی می کند. والترز حداقل از سال ۲۰۱۲ به عنوان خزانه دار و دفتر مالی SAF خدمت کرده است. والترز به حساب های بانکی و سوابق مالی SAF دسترسی دارد و مسئول نگهداری آن سوابق و ارائه گزارش های مالی به هیئت مدیره SAF است. والترز وظیفه امانتداری وفاداری و مراقبت را به SAF دارد و باید با حسن نیت و با در نظر گرفتن بهترین منافع SAF عمل کند. والترز این وظایف و مسئولیتها را با اختلاس و سوء استفاده از وجوه و داراییهای SAF به نفع خود و دستکاری سوابق مالی و صورتهای بانکی SAF برای پنهان کردن فعالیتهای خود نقض کرده است.»
طبق گفته والترز دادنامه، “هر بیانیه واقعیت در خلاصه مربوط به والترز نادرست است.” والترز در پرونده فرگوسن درگیر نبود و عضو یا کارمند بنیاد متمم دوم نیز نبود.
شکایت والترز استدلال میکند که «ادعاهای ChatGPT در مورد والترز نادرست و بدخواهانه بود، به صورت چاپی، نوشتاری، عکسها یا نشانهها بیان میشد و قصد داشت به شهرت والتر لطمه بزند و او را در معرض خطر قرار دهد. نفرت عمومی، تحقیر یا تمسخر.»
والتر همچنین استدلال کرد که ریل باید میدانست که ChatGPT در چنین مواردی غیرقابل اعتماد است، بنابراین باید پاسخ هوش مصنوعی را نادیده میگرفت.
آیا والترز شانسی دارد؟
یوجین ولوخ، استاد دانشگاه UCLA در حال تحقیق در مورد مسئولیت قانونی هوش مصنوعی برای خروجی ها، به Gizmodo گفت، «این گونه ادعاهای افترا اصولاً از نظر قانونی قابل اجرا هستند. اما حفظ این دعوی خاص باید سخت باشد.»
قابل توجه، نظرات توهین آمیز به طور رسمی منتشر نشده است. ولوخ میگوید: «به نظر میرسد هیچ ادعایی در مورد خسارت واقعی وجود ندارد – احتمالاً ریل متوجه شده است که چه اتفاقی در حال رخ دادن است، و بنابراین والترز چیزی از دست نداده است.»
برای دریافت خسارت، والترز باید ثابت کند که خروجی OpenAI «دانش نادرست یا نادیده گرفتن بیملاحظه احتمال دروغ» را نشان میدهد که به عنوان «بدخواهی واقعی» نیز شناخته میشود. /span>
یا به عبارت دیگر، توهمات هوش مصنوعی دقیقاً همین هستند – توهم، اگرچه در این مورد از انواع خوش خیم نیستند. آنها با سوء نیت یا آگاهی از بی اعتنایی بی پروا در نظر گرفته نشده اند.
این تنها باری نیست که ChatGPT اطلاعات حقوقی را جعل می کند، زیرا چندی پیش بود که یک قاضی نیویورکی اخیراً به دلیل تحقیق در مورد پرونده ها با هوش مصنوعی با مجازات روبرو شد. که آنها نیز کاملاً جعل شده بودند.
ولوخ از چالش برانگیز بودن شکایت از شرکت های هوش مصنوعی در چنین مواردی انتقاد می کند. او میگوید: «OpenAI تصدیق میکند که ممکن است اشتباهاتی وجود داشته باشد، اما [ChatGPT] به عنوان یک شوخی در نظر گرفته نمیشود… این به عنوان چیزی است که اغلب بسیار قابل اعتماد و دقیق است.»
همچنین سؤالاتی درباره رباتهای گفتگو و بخش ۲۳۰ قانون نجابت ارتباطات، که اساساً از شرکت های اینترنتی در برابر بازگرداندن اطلاعات افتراآمیز احتمالی از درخواست ها محافظت می کند.< /span>
خط زمانی سناریوهای حقوقی ChatGPT
از آوریل، OpenAI با سه اتهام ارائه نادرست از طریق مدل هوش مصنوعی خود مواجه شده است.
- پرونده برایان هود: برایان هود، شهردار منطقه ای هپبورن شایر در استرالیا، تهدید به شکایت کرد. OpenAI در ماه آوریل. ChatGPT به دروغ او را در یک رسوایی رشوه دخیل کرد و او را یک مجرم محکوم کرد. در واقع، هود افشاگری بود که فساد را افشا کرد.
- پرونده جاناتان تورلی: مسئله مشابهی در مورد جاناتان تورلی، استاد حقوق در دانشگاه جورج واشنگتن مطرح شد. . به گفته تورلی، ChatGPT به دروغ او و چندین استاد دیگر را به آزار و اذیت جنسی متهم کرده بود. مدل هوش مصنوعی گزارش شده است که یک داستان واشنگتن پست ساخته و نقل قول هایی برای اثبات ادعاها ساخته است. این حادثه مشکل رو به رشدی را در مدلهای هوش مصنوعی مولد که نقل قولها و نقلقولهای نادرست تولید میکنند برجسته کرد.
- استفاده در خلاصه حقوقی: یک پرونده اخیر مربوط به وکیلی بود که در یک خلاصه حقوقی شامل چه مواردی بود قاضی تشخیص داد که «تصمیمات قضایی جعلی» تولید شده توسط ChatGPT است. وکیل مدافع یک موکل بود که از یک شرکت هواپیمایی شکایت می کرد و در نتیجه با پرونده خود در دادگاه روبرو شد.
متخصصان برتر حقوقی هنوز در تلاشند تا به مفاهیم حقوقی خروجی های هوش مصنوعی مولد توجه کنند. هوش مصنوعی تعاریف قانونی پیرامون افترا، افترا، حق چاپ و مالکیت معنوی را به چالش می کشد.
از آنجایی که این هوش مصنوعی ها در بسیاری از حوزه های قضایی در دسترس هستند، قوانین مربوط به مقررات و حاکمیت آنها احتمالاً به طور استثنایی دشوار خواهد شد و ظاهراً موارد بسیار دیگری نیز در دست بررسی هستند. .