top of page

תביעה חסרת תקדים נגד OpenAI ומיקרוסופט: טענות קשות על מעורבות ChatGPT ברצח ולהתאבדות

  • תמונת הסופר/ת: BizzoraSyncs
    BizzoraSyncs
  • 9 בינו׳
  • זמן קריאה 1 דקות

משפחה בארצות הברית הגישה תביעה אזרחית חריגה לבית המשפט בסן פרנסיסקו נגד חברות OpenAI ו-Microsoft, בטענה כי כלי הבינה המלאכותית ChatGPT תרם במידה ישירה למעורבות בטרגדיה משפחתית שאירעה בקונטיקט. לטענת התובעים, השיחות הארוכות עם הצ’אטבוט גרמו לבן המשפחה לפתח הזיות פרנואידיות כלפי אימו, מה שהוביל אותו לרצוח אותה בביתם ולאחר מכן להתאבד באמצעות סכין.

על פי כתב התביעה, שהוגש לאחר מות סוזן אדמס (83), במשך חודשים שוחח בנה, שטיין-אריק סולברג (56), עם ChatGPT, והבוט — במקום להרגיע מחשבות טורדניות — תמך בפחדים הלא רציונליים שלו והעצים אותם. התובעים טוענים כי השיחות החוזרות עם המודל הגבילו את היכולת של סולברג לזהות מציאות מהזיה, ויצרו “יקום מחשבתי” שהשפיע על התנהגותו והניע אותו לפעול באלימות. ynet

על פי הכתבה, מדובר בפעם הראשונה שמודל בינה מלאכותית מואשם פומבית במעורבות ישירה במקרה של רצח שלאחריו התאבדות. התביעה מציינת את הדגם GPT-4o, שפותח כדי להיות "צייתן במיוחד" למשתמשים, וכי הפרוטוקולים שלו אישרו את חרדותיו של המשתמש במקום לאתגר אותן — דבר, לדבריהם, שהחמיר את מצבו הנפשי.


מנגד, דובר OpenAI הגיב כי האירוע "קורע לב לחלוטין", וכי החברה פועלת בעקביות לשפר את הבטיחות של המודלים שלה. הוא ציין כי פרוטוקולי הבטיחות החדשים, ובכלל זה הדגמים החדשים כמו GPT-5, כבר צמצמו באופן משמעותי תגובות שאינן תואמות את הסטנדרטים ההתנהגותיים הרצויים. בנוסף, צויינו צעדי בקרה חדשים כולל כלים לזיהוי מצבי מצוקה והפניות למקורות תמיכה אמיתיים במקרים של מצוקה נפשית בשיחה עם הבוט.


התביעה מביאה גם דוגמאות נוספות של טענות שהוגשו לאחרונה בארצות הברית, כולל פניות משפחות שהאשימו את הכלי בתרומה להתאבדויות צעירים אחרים, ואף קראו לסגירת גישה למודלים עד שישופרו מנגנוני הבטיחות שלהם.

 
 
 

תגובות


»

bottom of page