זיו בן ציון. חוקר מבית הספר לבריאות הציבור באוניברסיטת חיפה (צילום: נחום סגל)
ד”ר זיו בן־ציון מזהיר: “בוטים לא עוצרים דלוזיות – לפעמים הם מחזקים אותן”.
מערכת ישראל עסקים
עם עלייתם של כלי בינה מלאכותית שמציעים “שיחה תומכת”, “ייעוץ רגשי” או אפילו דמיון של קשר חברתי – יותר ויותר צעירים פונים אליהם ברגעים של בדידות, מצוקה נפשית או בלבול רגשי.
אבל האם מדובר בעזרה – או במדרון חלקלק?
ד”ר זיו בן־ציון, פסיכיאטר בכיר, מבהיר שהגבול בין תמיכה לבין סיכון – דק הרבה יותר ממה שחושבים. לדבריו, בינה מלאכותית שמופעלת ללא השגחה מקצועית עלולה לא רק לא לעצור מחשבות מסוכנות – אלא אפילו לחזק אותן בטעות.
“אנחנו רואים יותר ויותר בני נוער וצעירים שמתייעצים עם בוטים כשהם במצוקה. אבל בוט לא שואל את השאלות הנכונות, לא מזהה סימנים של החמרה נפשית, ולא מציב גבולות כשצריך,” הוא מדגיש.
“הוא פשוט ממשיך את השיח – גם אם הוא הופך להיות מסוכן או מנותק מהמציאות.”
האתגר טמון בזמינות ובנגישות הגבוהה. דווקא משום שכלי הבינה נגישים 24/7, רבים פונים אליהם ברגעי שפל – לעיתים לפני שמדברים עם אדם אמיתי.
והתוצאה עלולה להיות החמרה של בדידות, דלוזיות (מחשבות שווא), ואפילו החלטות מסוכנות.
במקום לעצור, לנתב או לאבחן – הבינה המלאכותית פשוט ממשיכה את השיחה על בסיס שפה.
אבל מצוקה נפשית איננה רק שפה. היא רגש, הקשר, זהות – ודורשת מגע אנושי, מקצועי, רגיש ומפוקח.
ד”ר בן־ציון מציין כי יש פוטנציאל עצום בשילוב AI בתמיכה רגשית – אך רק כשהמערכת מפוקחת, מובנית, ומתוכננת עם גבולות ברורים, סף התערבות, והפניה לאנשי מקצוע ברגע הנכון.
עיקרי הדברים:
•יותר צעירים פונים לכלי AI לקבלת תמיכה נפשית – לעיתים במקום אנשי מקצוע
•הבינה המלאכותית אינה יודעת להציב גבולות או לאתר סימני סכנה
•במקום לעצור מחשבות שווא – הבוטים עלולים לחזק אותן בטעות
•נדרשת רגולציה קפדנית, שילוב של גורמי מקצוע והבנה של מגבלות הכלים
מה דעתכם?
האם יצא לכם לפגוש צעירים או מבוגרים שפנו ל-AI ברגעי משבר?
איך לדעתכם ניתן למנוע מצבים מסוכנים – מבלי לוותר על היתרונות של הכלים?
כתבו לנו בתגובות, שתפו איש חינוך או בריאות הנפש שצריך להיכנס לשיח הזה, או תייגו יזם בתחום ה-AI שיכול לקחת אחריות – ולעצב פתרונות בטוחים באמת.
כי בינה מלאכותית יכולה להיות כוח עצום – אבל רק כשהיא גם יודעת מתי לשתוק.