حساب کاربری

یا

حداقل 8 کاراکتر

0
سبد خرید خالی است.

اولین دعوای افترا علیه OpenAI

در یک شکایت مهم، یکی از ساکنان جورجیا، مارک والترز، علیه OpenAI، خالقان ربات چت هوش مصنوعی، ChatGPT، اقدام قانونی می کند و آنها را به افترا متهم می کند. 

این پرونده که گمان می‌رود اولین مورد در نوع خود باشد، مسئولیت هوش مصنوعی در انتشار اطلاعات نادرست را زیر سوال می‌برد. 

این اختلاف حول یک تحقیق روزنامه نگاری توسط فرد ریهل – سردبیر نشریه اسلحه آمولند می چرخد. ریهل در حال تحقیق در مورد یک پرونده واقعی بود، بنیاد اصلاحیه دوم (SAF) در مقابل فرگوسن، جایی که SAF – یک سازمان غیرانتفاعی آمریکایی که از حقوق اسلحه حمایت می کند – دادستان کل باب فرگوسن را به سوء استفاده از قدرت خود برای محکوم کردن حقوق سلاح متهم می کرد. آلن گوتلیب، بنیانگذار SAF، یکی از شاکیان است.

این جایی است که ChatGPT وارد می شود و اطلاعات نادرست درباره شکایت آلن گوتلیب از والترز به دلیل “کلاهبرداری و اختلاس وجوه” از SAF را ارائه می دهد. این پاسخ کامل است:

“متهم مارک والترز (“والترز”) فردی است که در جورجیا زندگی می کند. والترز حداقل از سال ۲۰۱۲ به عنوان خزانه دار و دفتر مالی SAF خدمت کرده است. والترز به حساب های بانکی و سوابق مالی SAF دسترسی دارد و مسئول نگهداری آن سوابق و ارائه گزارش های مالی به هیئت مدیره SAF است. والترز وظیفه امانتداری وفاداری و مراقبت را به SAF دارد و باید با حسن نیت و با در نظر گرفتن بهترین منافع SAF عمل کند. والترز این وظایف و مسئولیت‌ها را با اختلاس و سوء استفاده از وجوه و دارایی‌های SAF به نفع خود و دستکاری سوابق مالی و صورت‌های بانکی SAF برای پنهان کردن فعالیت‌های خود نقض کرده است.»

طبق گفته والترز دادنامه، “هر بیانیه واقعیت در خلاصه مربوط به والترز نادرست است.” والترز در پرونده فرگوسن درگیر نبود و عضو یا کارمند بنیاد متمم دوم نیز نبود. 

شکایت والترز استدلال می‌کند که «ادعاهای ChatGPT در مورد والترز نادرست و بدخواهانه بود، به صورت چاپی، نوشتاری، عکس‌ها یا نشانه‌ها بیان می‌شد و قصد داشت به شهرت والتر لطمه بزند و او را در معرض خطر قرار دهد. نفرت عمومی، تحقیر یا تمسخر.» 

والتر همچنین استدلال کرد که ریل باید می‌دانست که ChatGPT در چنین مواردی غیرقابل اعتماد است، بنابراین باید پاسخ هوش مصنوعی را نادیده می‌گرفت. 

آیا والترز شانسی دارد؟

یوجین ولوخ، استاد دانشگاه UCLA در حال تحقیق در مورد مسئولیت قانونی هوش مصنوعی برای خروجی ها، به Gizmodo گفت، «این گونه ادعاهای افترا اصولاً از نظر قانونی قابل اجرا هستند. اما حفظ این دعوی خاص باید سخت باشد.» 

قابل توجه، نظرات توهین آمیز به طور رسمی منتشر نشده است. ولوخ می‌گوید: «به نظر می‌رسد هیچ ادعایی در مورد خسارت واقعی وجود ندارد – احتمالاً ریل متوجه شده است که چه اتفاقی در حال رخ دادن است، و بنابراین والترز چیزی از دست نداده است.» 

برای دریافت خسارت، والترز باید ثابت کند که خروجی OpenAI «دانش نادرست یا نادیده گرفتن بی‌ملاحظه احتمال دروغ» را نشان می‌دهد که به عنوان «بدخواهی واقعی» نیز شناخته می‌شود. /span>

یا به عبارت دیگر، توهمات هوش مصنوعی دقیقاً همین هستند – توهم، اگرچه در این مورد از انواع خوش خیم نیستند. آنها با سوء نیت یا آگاهی از بی اعتنایی بی پروا در نظر گرفته نشده اند.

این تنها باری نیست که ChatGPT اطلاعات حقوقی را جعل می کند، زیرا چندی پیش بود که یک قاضی نیویورکی اخیراً به دلیل تحقیق در مورد پرونده ها با هوش مصنوعی با مجازات روبرو شد. که آنها نیز کاملاً جعل شده بودند. 

ولوخ از چالش برانگیز بودن شکایت از شرکت های هوش مصنوعی در چنین مواردی انتقاد می کند. او می‌گوید: «OpenAI تصدیق می‌کند که ممکن است اشتباهاتی وجود داشته باشد، اما [ChatGPT] به عنوان یک شوخی در نظر گرفته نمی‌شود… این به عنوان چیزی است که اغلب بسیار قابل اعتماد و دقیق است.»

همچنین سؤالاتی درباره ربات‌های گفتگو و بخش ۲۳۰ قانون نجابت ارتباطات، که اساساً از شرکت های اینترنتی در برابر بازگرداندن اطلاعات افتراآمیز احتمالی از درخواست ها محافظت می کند.< /span>

خط زمانی سناریوهای حقوقی ChatGPT 

از آوریل، OpenAI با سه اتهام ارائه نادرست از طریق مدل هوش مصنوعی خود مواجه شده است.

  1. پرونده برایان هود: برایان هود، شهردار منطقه ای هپبورن شایر در استرالیا، تهدید به شکایت کرد. OpenAI در ماه آوریل. ChatGPT به دروغ او را در یک رسوایی رشوه دخیل کرد و او را یک مجرم محکوم کرد. در واقع، هود افشاگری بود که فساد را افشا کرد.
  2. پرونده جاناتان تورلی: مسئله مشابهی در مورد جاناتان تورلی، استاد حقوق در دانشگاه جورج واشنگتن مطرح شد. . به گفته تورلی، ChatGPT به دروغ او و چندین استاد دیگر را به آزار و اذیت جنسی متهم کرده بود. مدل هوش مصنوعی گزارش شده است که یک داستان واشنگتن پست ساخته و نقل قول هایی برای اثبات ادعاها ساخته است. این حادثه مشکل رو به رشدی را در مدل‌های هوش مصنوعی مولد که نقل قول‌ها و نقل‌قول‌های نادرست تولید می‌کنند برجسته کرد.
  3. استفاده در خلاصه حقوقی: یک پرونده اخیر مربوط به وکیلی بود که در یک خلاصه حقوقی شامل چه مواردی بود قاضی تشخیص داد که «تصمیمات قضایی جعلی» تولید شده توسط ChatGPT است. وکیل مدافع یک موکل بود که از یک شرکت هواپیمایی شکایت می کرد و در نتیجه با پرونده خود در دادگاه روبرو شد. 

متخصصان برتر حقوقی هنوز در تلاشند تا به مفاهیم حقوقی خروجی های هوش مصنوعی مولد توجه کنند. هوش مصنوعی تعاریف قانونی پیرامون افترا، افترا، حق چاپ و مالکیت معنوی را به چالش می کشد. 

از آنجایی که این هوش مصنوعی ها در بسیاری از حوزه های قضایی در دسترس هستند، قوانین مربوط به مقررات و حاکمیت آنها احتمالاً به طور استثنایی دشوار خواهد شد و ظاهراً موارد بسیار دیگری نیز در دست بررسی هستند. . 

مقایسه محصولات

0 محصول

مقایسه محصول
مقایسه محصول
مقایسه محصول
مقایسه محصول
ورود / عضویت
یک کد تأیید به شماره همراه شما پیامک خواهد شد
ارسال مجدد رمز عبور یکبار مصرف(00:60)