קרה לכם שנעזרתם ב-ChatGPT כדי לכתוב פוסט, להכין מצגת או ללמוד משהו חדש – והכול נשמע מושלם… עד שגיליתם שהמידע פשוט לא נכון?
אתם לא לבד. גם לי זה קרה, ולא רק פעם אחת. ותכל'ס? זה מתסכל בטירוף. מצד אחד יש לנו כלי מדהים, חכם, מהיר, שיכול לחסוך שעות של עבודה. מצד שני, לפעמים הוא פשוט ממציא: מצטט מקורות שלא קיימים, מסלף פרטים, או כותב שטויות בשיא הביטחון.
אבל לפי שאתן מספר טיפים שיעזרו להקטין את ההזיות, ננסה להבין למה זה קורה.
התופעה הזו נקראת בעגה המקצועית hallucinations או בעברית: "הזיות" של בינה מלאכותית. למרות שהמונח נשמע מעט דרמטי, מדובר במנגנון טבעי שמתחייב מהאופן שבו מערכות כמו ChatGPT פועלות.
בשונה מאיתנו שמבינים הקשרים, שוקלים אמינות, וזוכרים עובדות, מודלים של בינה מלאכותית אינם שומרים "ידע" בצורה מסודרת. ChatGPT למשל לא מחזיק מאגר של עובדות שאפשר לגשת אליהן. במקום זאת, הוא מתבסס על כמויות עצומות של טקסטים שנלמדו מראש מהאינטרנט, ספרים, מאמרים, אתרים ועוד, ומייצר תשובות על פי הסתברויות סטטיסטיות.
מה זה אומר בפועל? שבמקום "לשלוף" עובדה ידועה, הוא מנסה לנחש מהו רצף המילים הכי הגיוני לבוא אחר השאלה ששאלנו, גם אם אין לו גיבוי ממשי לאותה תשובה. לכן, אם תבקשו ממנו: "תן לנו שם של מחקר שתומך בטענה הזו", והוא לא מכיר מחקר כזה, הוא עלול להמציא שם של מחקר שנשמע אמין לחלוטין, עם מחבר, תאריך ואפילו ציטוט. רק מה? המחקר הזה פשוט לא קיים.
וכאן בדיוק נעוצה הבעיה: ההזיות של הבינה המלאכותית לא נשמעות כמו שגיאות בוטות כי הן לרוב כתובות בשפה רהוטה, סמכותית ומשכנעת. זה מקשה לזהות שמדובר במידע שגוי, במיוחד כשאנחנו סומכים על הכלי שיעשה בשבילנו את העבודה.
במילים אחרות, ChatGPT הוא לא אנציקלופדיה, אלא מחולל שפה. לכן, כדי להשתמש בו באופן עסקי ומקצועי, אנחנו חייבים להבין את המגבלות שלו, ולדעת מתי להפעיל שיקול דעת, מתי לבדוק שוב, ואיך לשאול שאלות בצורה שמקטינה את הסיכוי לטעויות.
הנה כמה טיפים שיעזרו לכם להפוך את ChatGPT לעוזר אמין, שלא מפיל אתכם בפח:
בכל פעם שאתם מבקשים עובדות או טענות, תוסיפו משפט כמו: "בבקשה ציין גם את מקורות המידע, עם קישורים אם אפשר." זה יעזור לבדוק במהירות אם מדובר על מקור אמין או על המצאה. כשאתם מבקשים מהמודל להצדיק את הטענות שלו, אתם מעודדים אותו לספק מידע שיש לו בסיס יותר מוצק, ולא רק לייצר תשובות שנשמעות הגיוניות.
ככל שתיתנו הוראות מדויקות יותר, כך התשובה תהיה אמינה יותר. כדאי להוסיף משפטים כמו:
"תתבסס רק על מידע מעודכן ל-2025"
"אל תשתמש במקורות מומצאים"
"אם אין מידע ודאי, אז תרשום שאין".
הנחיות ברורות מסייעות למודל להבין את הציפיות שלכם ולהימנע מלהשלים פערים בידע באמצעות המצאות. הגדרת גבולות ברורים מראש מקטינה משמעותית את הסיכוי להזיות.
לפני ש-ChatGPT שולח לכם את התשובה, אפשר לבקש ממנו: "בדוק את הטקסט שכתבת – האם יש בו סתירות, טעויות או מקורות לא קיימים?" זוהי אסטרטגיה יעילה שמאפשרת למודל לבצע ביקורת עצמית. לעיתים קרובות, כאשר מבקשים מהמודל לבחון מחדש את התשובה שלו, הוא יכול לזהות בעצמו מקרים שבהם הוא עשוי להיות פחות בטוח או מקומות שבהם הוא עלול להמציא מידע.
גם אם הכול נשמע מושלם, תעברו ותקראו את הטקסט. תבדקו עובדות חשובות מול אתרים אמינים, תחפשו תאריכים או שמות מדויקים, ואל תסמכו רק על מה שסיפק לך ה-AI. פיתוח גישה ביקורתית כלפי המידע שמתקבל מ-ChatGPT הוא חיוני, במיוחד כשמדובר בנושאים רגישים או בתוכן שמיועד לפרסום. בית המשפט העליון בישראל אף הזהיר לאחרונה מפני שימוש בלתי מבוקר בכלי AI בהקשרים משפטיים, בדיוק בשל סוגיית ההזיות והמידע הלא מדויק שעלול להיכלל בתוצרים.
5. השתמשו בשאלות פתוחות במקום בקשות "סגורות"
במקום לבקש: "תן לנו שלושה מחקרים שמוכיחים ש…", נסו: "מה ידוע כיום על הנושא הזה? האם יש מחקרים עדכניים שאתה מכיר?"
שאלות פתוחות מזמינות את ה-AI להיות זהיר יותר – ומקטינות את הסיכוי ש"ימלא את החסר" עם תשובה מפוברקת. כאשר אתם מנסחים שאלות באופן שמאפשר למודל להודות בחוסר ידע, אתם מקטינים את הלחץ עליו לספק תשובה מלאה בכל מחיר.
משפטים כמו: "כתוב את המידע רק אם אתה בטוח שהוא נכון" או "אם אין מידע מדויק, תגיד לי" עוזרים ל-AI להיות זהיר יותר ולנסח תשובות עם יותר שקיפות וזהירות2. הנחיות כאלה מעודדות את המודל להיות מודע למגבלות הידע שלו ולהימנע מלהציג השערות כעובדות.
ישנם תחומים שבהם ChatGPT נוטה יותר להזיות, כמו חדשות עדכניות, פרטים ספציפיים על אנשים, התפתחויות טכנולוגיות, נתונים פיננסיים, ותחזיות עתידיות. כשאתם עוסקים בנושאים אלה, היו ערניים במיוחד ותבדקו את המידע ביסודיות. בנושאים רגישים כמו בריאות, רפואה, תיאוריות מדעיות חדשניות וחקיקה ספציפית, חשוב במיוחד לאמת את המידע ממקורות מהימנים.
אם יש לכם שאלה מורכבת, פרקו אותה לחלקים קטנים יותר. זה עוזר ל-ChatGPT להתמקד בדבר אחד בכל פעם, ומפחית את הסיכוי לתשובות מוזרות או לא מדויקות. גישה זו מאפשרת למודל לעבד כל חלק בנפרד ולספק תשובות מדויקות יותר, במקום לנסות להתמודד עם שאלה רחבה מדי שעלולה להוביל להכללות או המצאות.
העבודה עם ChatGPT יכולה להיות מהירה, יעילה ומעוררת השראה. אבל היא דורשת גם אחריות. הכלי הזה לא תמיד יודע להבחין בין אמת להזיה, ולכן אנחנו כמשתמשים חכמים חייבים לדעת איך להנחות אותו נכון, ואיך לבדוק את התשובות שהוא מספק. השילוב בין היכולות של הבינה המלאכותית לבין שיקול הדעת האנושי שלנו הוא שמייצר תוצאה מנצחת: תוכן איכותי, אמין ומדויק שמתאים לעסק שלנו ולערכים שאנחנו מייצגים. תזכרו ש-ChatGPT הוא עוזר מעולה, אבל האחריות על האיכות נשארת אצלנו.
ככל שנבין טוב יותר את המגבלות של הטכנולוגיה ונאמץ גישה ביקורתית ואחראית, כך נוכל להפיק ממנה את המיטב ולהימנע מהמלכודות של הזיות AI. בעידן שבו מידע שגוי יכול להתפשט במהירות, היכולת שלנו לסנן, לבדוק ולאמת הופכת לחיונית יותר מתמיד – גם כשאנחנו עובדים עם הכלים המתקדמים ביותר.