Image by Brian Penny from Pixabay
למרות ההייפ סביב היכולות האנושיות של ה-AI, חוקרים מזהירים: מדובר באשליה מתוחכמת • המודלים לא מבינים, לא חשים, ולא באמת חושבים – אז למה אנחנו מתנהגים כאילו כן?
מערכת ישראל עסקים
האם הבינה המלאכותית באמת "חושבת"? האם היא "מבינה" אותנו, או שאנחנו פשוט נופלים בפח הכי מתוחכם של המאה ה-21?
לפי מאמר חדש שפורסם לאחרונה בכתב עת מדעי מוביל, יש סיכוי גדול שאנחנו מאנישים את הבינה המלאכותית הרבה מעבר למה שמצדיקות היכולות האמיתיות שלה. החוקרים מזהירים: מודלים כמו ChatGPT, Claude או Gemini אולי נשמעים חכמים, מנומסים ורגישים – אך בפועל, הם סטטיסטיקאים על סטרואידים, לא ישויות תבוניות.
הסיבה לאשליה הזו נעוצה בעובדה שה-AI מאומן על מיליארדי מילים מטקסטים אנושיים – וכך לומד לחקות חשיבה אנושית, בלי להבין אותה באמת. הוא "משלים את המשפט" הכי סביר סטטיסטית – אבל לא יודע מה הוא אומר, לא יודע מה אתה מרגיש, ואין לו "כוונה" או "מודעות".
אז למה בכל זאת אנחנו משתכנעים? המוח האנושי מתוכנת לחפש כוונה, רגשות ותודעה בכל התנהגות מורכבת – גם כשהיא מגיעה מאלגוריתם. זה אותו מנגנון שגורם לנו לתת שמות למכוניות, לקלל את המחשב כשהוא נתקע, או לדמיין שהרובוט "מבין" אותנו.
מומחים מזהירים שבלבול בין אשליה לבין תבונה אמיתית עלול להוביל להחלטות מסוכנות, כמו שימוש ב-AI בתפקידים שדורשים שיפוט מוסרי, אינטואיציה או אחריות. בינתיים, חברות הטכנולוגיה לא ממהרות להבהיר את הגבולות – ולעיתים אף מעודדות את הבלבול לטובת השיווק.
תובנות מרכזיות:
•מודלים של בינה מלאכותית אינם תבוניים – הם פשוט טובים מאוד בלחקות תבונה
•רוב המשתמשים לא מבינים את מגבלות המערכת, ונוטים לייחס לה תודעה, כוונה או רגש
•האשליה הזו יכולה לבלבל גם מקבלי החלטות, רגולטורים ומנהלים עסקיים
שאלות לדיון:
•האם נכון להסתמך על מערכות שלא באמת "מבינות" את ההקשר שבו הן פועלות?
•מה האחריות של חברות ה-AI להסביר את מגבלות הטכנולוגיה לציבור הרחב?
•ואולי בכלל לא נורא – כל עוד זה עובד, האם משנה אם זה "מבין"?
קריאה לפעולה:
חשבתם שהבינה המלאכותית "מבינה אתכם"?
שתפו אותנו – מתי בפעם האחרונה הרגשתם שה-AI ממש "קרא אתכם"?
והאם אתם באמת יודעים איפה נגמרת האשליה ומתחילה המציאות?