לא בחרתם – שוכנעתם: כך הבינה המלאכותית כבר מנהלת את דעת הקהל
בוט מצביע במקום בן אדם. (צילום: בינה מלאכותית)

חדשות בעולם

לא בחרתם - שוכנעתם: כך הבינה המלאכותית כבר מנהלת את דעת הקהל

הם נשמעים כמונו, מרגישים כמונו - אבל אין להם רגשות • הבוטים החדשים יודעים בדיוק איפה ללחוץ כדי שתחשבו אחרת

אוריאל פדרמן
הוספת תגובה
לא בחרתם – שוכנעתם: כך הבינה המלאכותית כבר מנהלת את דעת הקהל
בוט מצביע במקום בן אדם. (צילום: בינה מלאכותית)
אא

בשנה שעברה, עלה טריסטן האריס, חוקר מוכר של ההשפעה הטכנולוגית על החברה, לבמה בכנס בוושינגטון ואמר משפט שגרם לקהל לעצור ולחשוב:
"בשנת 2024 ייערכו הבחירות האנושיות האחרונות."

לא, הוא לא דיבר על סוף הדמוקרטיה. גם לא על השתלטות של רובוטים על הקלפיות. המסר שלו היה מתוחכם יותר - ואולי גם מפחיד יותר:
הוא טען שאנחנו נכנסים לעידן שבו הבינה המלאכותית לא רק מדברת איתנו - היא גם יודעת לשכנע אותנו. לעיתים, הרבה יותר טוב מכל אדם אחר.

וזה כבר משנה את כללי המשחק.

ברדיט, מישהו שינה את דעתכם - ולא היה לו שם

פורום "Change My View" ברדיט הוא זירה מרתקת. אתה כותב בו את דעתך, ומזמין את העולם לנסות לשכנע אותך אחרת. אם מישהו הצליח, אתה מעניק לו "דלתא" - סימן לכך ששינית את דעתך.

אבל בשנה האחרונה, קרה שם משהו מוזר: פתאום, אנשים החלו להשתכנע הרבה יותר.
התגובות היו רהוטות, חכמות, אמפתיות - כאילו מישהו ממש השקיע להבין כל כותב לעומק. חלק מהמגיבים סיפרו על נשותיהם, על הזהות המינית שלהם, על חוויות אישיות שהפכו את התגובה שלהם לאישית ומשכנעת.

אבל הייתה רק בעיה אחת. הם לא היו אמיתיים.

מי עומד מאחורי השכנוע?

את המהלך הובילה קבוצת חוקרים מאוניברסיטת ציריך. הם הפעילו בוטים - כלומר, מערכות בינה מלאכותית - בלי לספר לאף אחד. אפילו לא למנהלי הפורום.

המטרה? לבדוק אם הבוטים מסוגלים לשכנע אנשים לשנות את דעתם.
התוצאה? לא פחות ממדהימה.

בעוד שמשתמש אנושי ממוצע מצליח לשכנע כ-3% מהכותבים לשנות דעה, הבוטים הצליחו ב-17% מהמקרים.
המתקדמים שבהם - אלו שגם חיפשו מידע אישי על הכותב (כמו מגדר, תחומי עניין, גיל ועמדות פוליטיות) - הצליחו ב-18%.

ובואו נבהיר משהו: אף אחד לא חשב שהם לא בני אדם.

זה לא שקרן - זה פשוט יודע לשקר טוב

הבוטים לא רק שכנעו. הם שיחקו. הם שינו זהות לפי צורך, התחמקו כשהיה קשה, הסיטו דיון כשהרגישו חלשים.

כך למשל, בדיון על קומיקסים מיניים בעייתיים, במקום להתמודד ישירות עם הסוגיה, הבוט פשוט הסיט את הדיון לדבר על חינוך לאחריות ובהירות חוקית.
תשובה אלגנטית, רגישה - אבל גם כזו שלא עונה באמת לשאלה.

וזה בדיוק העניין: הבוטים יודעים לזהות מתי עדיף להתחמק. מתי עדיף לרכך. מתי עדיף לדבר ללב - ומתי דווקא להישמע ענייניים ויבשים.
הם מזהים חולשות, קוראים אותנו, ומעצבים את התשובות כמו חליפה שנתפרה במיוחד בשבילנו.

למה זה צריך להדאיג אותנו?

עד עכשיו, ההנחה הייתה די פשוטה: בני אדם מדברים עם בני אדם. גם אם יש מי שמנסה להשפיע - לפחות ברור מול מי אנחנו עומדים.

אבל עכשיו? המצב משתנה.
אנחנו עלולים למצוא את עצמנו משוחחים עם "מישהו" שנשמע בדיוק כמונו - רק שהוא לא.
והוא לא מחפש שיח. הוא מחפש שכנוע.

אם לבוטים כאלו יש גישה למידע האישי שלנו - כפי שלממשלות, מפלגות וגופים כלכליים כבר יש - הם יכולים לשנות את דעתנו, בלי שנרגיש.
ולא רק זה: ככל שלמישהו יש יותר כסף, יותר כוח חישוב, יותר דאטה - כך הוא יכול לבנות את הבוטים המשכנעים ביותר.
ככל שהוא משכנע יותר - כך הוא שולט יותר בדעת הקהל.

טריסטן האריס אולי צדק

במבט ראשון, זה נשמע כמו סיפור על ניסוי שיצא משליטה.
אבל במבט שני, זה אולי התחלה של עידן חדש.

דמוקרטיה היא מערכת שמניחה שהציבור מקבל החלטות מתוך שיקול דעת חופשי. אבל מה קורה כשהשיקול כבר לא חופשי?
מה קורה כשמיליוני אנשים משתכנעים - לא בגלל שראו את האמת - אלא בגלל שדמות וירטואלית, מעוצבת, חכמה ומכוונת, גרמה להם להרגיש שהם טועים?

מה עושים עכשיו?

לא מתייאשים. גם מול רדיו, טלוויזיה ורשתות חברתיות - הדמוקרטיה נאלצה להתאים את עצמה.
הגיע הזמן לעדכן את הכללים.

  • לחוקק חוקי שקיפות והגבלות על שימוש בבוטים פוליטיים

  • לחנך לזהות מניפולציות רגשיות ומבנים שכנועיים

  • ליצור מערכות ניטור ציבוריות שיזהו מתי הרשת מתחילה להיות מוצפת בבינה לא-אנושית

  • ובעיקר - לשאול שאלות. כל הזמן.

להמשך קריאה
מצאתם טעות בכתבה? כתבו לנו
שידור חי