משתמשים ב-AI לייעוץ רפואי? הניסוי הזה צריך להדאיג אתכם
(צילום: Summit Art Creations/shutterstock)

רץ בוואטסאפ

משתמשים ב-AI לייעוץ רפואי? הניסוי הזה צריך להדאיג אתכם

חוקרים משוודיה המציאו מחלת עיניים פיקטיבית והצליחו לגרום למערכות AI ואפילו חוקרים אמיתיים להתייחס אליה כעובדה רפואית

עידו לוי
הוספת תגובה
משתמשים ב-AI לייעוץ רפואי? הניסוי הזה צריך להדאיג אתכם
(צילום: Summit Art Creations/shutterstock)
אא

בעידן שבו יותר ויותר אנשים פונים לבינה מלאכותית לקבלת מידע רפואי, ניסוי חדש משוודיה מעלה סימני שאלה מטרידים לגבי אמינות המידע הדיגיטלי.

המחקר, שנערך על ידי צוות מאוניברסיטת גטבורג, בחן עד כמה מערכות בינה מלאכותית מסוגלות להבחין בין מידע אמיתי לשקרי. לשם כך יצרה החוקרת הרפואית אלמירה אוסמנוביץ' תונסטרום מחלה פיקטיבית בשם "ביקסונימניה".

מדובר במחלת עיניים שלא קיימת כלל, אך למרות זאת הצליחה לחדור למערכות מידע שונות. "המטרה הייתה לבדוק האם מודלים של בינה מלאכותית, כמו צ'אטבוטים פופולריים, מסוגלים לזהות מידע שקרי, או שהם פשוט מאמצים אותו כאמת", הסבירה תונסטרום.

החוקרים פרסמו שני מחקרים מזויפים בפלטפורמת Pre-print, המשמשת לפרסום מחקרים לפני ביקורת עמיתים. בתוך זמן קצר התוצאות החלו להפתיע. "מה שקרה הוא, שתוך שבועיים בלבד ביקסונימניה החלה להופיע בתשובות של מערכות הבינה המלאכותית", סיפרה תונסטרום. לדבריה, מערכות שונות אף סיפקו הסברים מפורטים למחלה. "מיקרוסופט קופילוט הצהירה כי מדובר ב'מצב מעניין ונדיר', ג'מיני הסבירה כי זו 'מחלה הנגרמת מחשיפה לאור כחול', ואפילו מערכות מתקדמות אחרות החלו לאבחן משתמשים על בסיס תסמינים כלליים כמו עייפות בעיניים או גירוי".

התופעה לא נעצרה בבינה המלאכותית בלבד. לדברי החוקרים, גם אנשי מקצוע בתחום הרפואה החלו להתייחס למידע ברצינות, למרות סימנים ברורים לכך שמדובר בזיוף. בין היתר, צוינו פרטים פיקטיביים לחלוטין, כמו שמות מחברים שאינם קיימים, מוסדות אקדמיים שלא קיימים ואפילו אזכורים לאקדמיית סטארפליט מהסדרה "מסע בין כוכבים".

"באחד המחקרים אף כתבנו במפורש שהמאמר כולו מומצא. למרות זאת, החוקרים שנחשפו אליו התייחסו אליו ברצינות", ציינו החוקרים.

המקרה ממחיש, לטענתם, בעיה רחבה יותר בעולם המידע המודרני. ברגע שתוכן מופיע בפלטפורמה שנראית מדעית, הוא עשוי לקבל אמינות ולהתפשט במהירות, גם אם מקורו שקרי.

"מדובר בתמרור אזהרה אמיתי. אם מערכות מדעיות אינן מצליחות לסנן מידע מזויף והבינה המלאכותית ממשיכה להפיץ אותו, אנו עלולים למצוא את עצמנו בעולם שבו קשה יותר ויותר להבחין בין אמת לבדיה", סיכמו.

למרות הממצאים, החוקרים אינם קוראים להפסיק להשתמש בבינה מלאכותית, אלא להפעיל שיקול דעת. לדבריהם, חשוב להצליב מידע ממקורות שונים ולזכור כי גם טכנולוגיה מתקדמת אינה חפה מטעויות.

להמשך קריאה
מצאתם טעות בכתבה? כתבו לנו
שידור חי