חייל אמריקני השתמש ב-ChatGPT לתכנון פיצוץ – ונהרג בזירה
חייל אמריקני השתמש ב-ChatGPT לתכנון פיצוץ – ונהרג בזירה(צילום: Andy Gin/shutterstock/SomYuZu)

חדשות

חייל אמריקני השתמש ב-ChatGPT לתכנון פיצוץ – ונהרג בזירה

משטרת לאס וגאס חושפת: מת'יו ליבלסברגר השתמש בבינה מלאכותית לתכנון פיצוץ מכונית ליד מלון טראמפ. המכתבים שהותיר מצביעים על מניעים נפשיים וחברתיים.

עידו לוי
הוספת תגובה
חייל אמריקני השתמש ב-ChatGPT לתכנון פיצוץ – ונהרג בזירה
חייל אמריקני השתמש ב-ChatGPT לתכנון פיצוץ – ונהרג בזירה(צילום: Andy Gin/shutterstock/SomYuZu)
אא

משטרת לאס וגאס הודיעה כי מת'יו ליבלסברגר, חייל משוחרר שנהרג בפיצוץ מכונית טסלה מחוץ למלון טראמפ בעיר, תכנן את המעשה תוך שימוש בתוכנת ChatGPT. בחקירה שנערכה במכשיריו התגלו חיפושים שהעלו שאלות על כוונותיו, בין היתר חיפושים על חומרי נפץ, מהירות קליעים וזיקוקים במדינת אריזונה.

לדברי החוקרים, ליבלסברגר השאיר אחריו מכתבים בהם כתב כי "הפיצוץ נועד להוות קריאת השכמה למדינה" בתקווה שתפעל לתיקון בעיותיה. "מדובר במעשה מכוון, שתוכנן בקפידה, תוך שימוש בכלים טכנולוגיים מתקדמים כמו ChatGPT", אמר גורם בכיר במשטרה.

עו"ד מייקל ויינשטיין, המייצג את משפחתו של ליבלסברגר, מסר כי "מדובר במקרה טרגי של אדם שהיה במצוקה נפשית קשה. אין כאן טרור, אלא זעקה לעזרה שלא נענתה".

בדיון נוסף שנערך בבית המשפט, ציינה התביעה כי ליבלסברגר "עשה שימוש לרעה בכלים טכנולוגיים זמינים כדי לבצע מעשה מסוכן ומזעזע". גורמים במשטרה הביעו דאגה מהשימוש במודלים של בינה מלאכותית לצורך תכנון פעולות בלתי חוקיות, והוסיפו כי "מדובר במדרון חלקלק שמצריך התערבות רגולטורית".

פרשנים צבאיים בארצות הברית הביעו חשש מכך שמערכת התמיכה בחיילים משוחררים אינה מספקת מענה למצוקותיהם הנפשיות, דבר שעלול להוביל לאירועים דומים בעתיד.

להמשך קריאה
מצאתם טעות בכתבה? כתבו לנו
שידור חי