כולם מדברים על כמה ה-AI חכם. איך הוא "מבין" ו"יוצר". האמת? הוא לא.
כשאתם שואלים את ChatGPT שאלה, אתם לא משוחחים עם תודעה. אתם מתקשרים עם מכונת הימורים סטטיסטית משוכללת. אלגוריתם שמטרתו היחידה היא לנחש, מילה אחרי מילה, מהי התשובה שהכי סביר שתספק בן אנוש ממוצע.
זה הכול. לא הבנה, לא חוכמה. ניחוש.
מאיפה מגיעים הניחושים האלה? מתערובת כאוטית של כל מה שהאנושות טרחה להעלות לרשת בעשרים השנים האחרונות. פוסטים, ויקיפדיה, ספרים, קוד, וכן – גם אינסוף שיחות ברדיט, כולל כל הבדיחות הגרועות, הוויכוחים המטופשים והמתכונים הכושלים לבראוניז.
ה-AI לא "יודע". הוא פשוט מזהה דפוסים ממש טוב.
הצצה מתחת למכסה המנוע
כדי להבין עם מה אתם עובדים, הנה פירוק גס של "הדיאטה" של מודל שפה ממוצע (מבוסס על מחקרים נוב' 2025):
40-60% מהאינטרנט הפתוח: זה המנוע המרכזי. המחסן העצום והמבולגן של האנושות. כאן נמצא הכוח, אבל גם רוב הרעש, הטעויות וההטיות. זה מה שנותן למודל את תחושת "הידע הכללי" שלו, וזו גם אחת מהסיבות שהוא יכול לחרטט בביטחון כה רב.
15-30% רדיט ופורומים: כאן נולדת ה"אישיות". המודל לומד לדבר כמונו – עם ההומור, הסרקזם, והציניות שלנו. זה מה שהופך אותו לשימושי, אבל גם לבלתי אמין לחלוטין. הוא מדבר כמונו, לטוב ולרע.
10-20% ספרים וחדשות: זה החלק ה"תרבותי", הלבוש הרשמי. זה מה שמוסיף קצת עומק, או לפחות גורם לו להישמע כאילו יש לו עומק. הבעיה? הרבה מזה לא רלוונטי לעכשיו. מישהו אמר "אקדמיה"?
עד 20% מידע סינתטי: כאן זה מתחיל להיות מוזר. בינה מלאכותית שמאמנת בינה מלאכותית אחרת. הנחש שאוכל את הזנב של עצמו. זה מאיץ את האימון, אבל גם יוצר סיכון להגברת טעויות והזיות.
שלב הפיניש: בית הספר לנימוסים של הרובוט
אחרי שמאביסים אותו בכל הדאטה הזה, מגיע שלב ה-RLHF (למידת חיזוק ממשוב אנושי). או במילים פשוטות: שלב "אל תהיה אידיוט".
בשלב הזה, בני אדם יושבים ומדרגים את התשובות של המודל. הם מלמדים אותו להיות מנומס, ברור, ובטיחותי. זה פילטר של תקינות פוליטית, לא פילטר של אמת.
אז מה זה אומר מבחינתכם?
1. "אתם לא מקבלים ידע, אתם מקבלים ניחוש משוכלל." האחריות לבדוק כל עובדה, כל נתון וכל טענה – עדיין עליכם. אל תהיו עצלנים.
2. "המודל לא מבין, הוא מדמה הבנה." הוא מחבר דפוסים באופן שנשמע משכנע, בלי להבין באמת את המשמעות. הוא יכול לכתוב קוד, לנסח מיילים רגישים ולשכנע אתכם שהוא חבר שלכם. הוא לא.
3. "הפרטיות שלכם היא חלק מהדאטה." מה שכתבתם פעם בפורום נידח יכול לחזור אליכם בתור תשובה מלוטשת ומנוסחת היטב. ואולי היא עדיין תהיה שגויה.
הסכנה האמיתית היא לא שה-AI יהפוך לחכם מדי. הסכנה היא שאנחנו נהפוך לעצלנים מדי.
כל אינטראקציה שלנו איתו היא שיעור כפול: אנחנו מאמנים אותו, והוא מאמן אותנו להסתפק בפחות. אם לא נשאר ביקורתיים, אם נוותר על המאמץ לחשוב בעצמנו, נכנס ללופ אינסופי של בינוניות.





