האם רובוט יכול להיות מטפל הגון?

ועידת המטפל של אלי בוט כנס Talkspace

ראינו בינה מלאכותית מתקדמת המסוגלת לנהל שיחה כמו סירי, ווטסון של יבמ וקורטנה של מיקרוסופט. אך האם יכול כל רובוט - אפילו משהו שתוכנן רק לטיפול פסיכולוגי ומתקדם יותר מהאינטליגנציה האמורה לעיל - להיות מטפל הגון?





אנשים השתמשו בוטים לטיפול, אך לא ברור אם הם יכולים לעלות על מטפלים אנושיים עוד בחיינו. התבוננות בעתיד, בהווה ובעתיד אפשרי של רובוטים כמטפלים תתן לך מושג עד כמה הם יכולים להיות יעילים.

דוגמה מוקדמת לרובוט שמנסה להיות מטפל

אליזה היא אחת התוכניות המוקדמות והידועות ביותר שניסו לפעול כמטפל. פרופסור ומדעי המחשב ב- MIT, ג'וזף וייזנבאום, תכנן את אליזה בכדי לספק פסיכותרפיה רוג'רית.





מכיוון שפסיכותרפיה של רוג'ריאן מעודדת בעיקר לקוחות לדבר יותר ולא לעסוק בדיון, יכולות השיחה המוגבלות של אליזה הספיקו כדי לשכנע אנשים מסוימים שזה אנושי ולעזור להם להרגיש קצת יותר טוב עם הבעיות שלהם. אף על פי כן, אליזה לא יכלה לספק שום דבר שניתן להשוות לטיפול אצל מטפל אנושי.

כדי להדגים את המגבלות של אליזה, יצרתי את התמליל הבא באמצעות סימולטור ELIZA מודרני :



אליזה: שלום, אני אלייזה.
שיחה: היי אלייזה, אני מרגיש בודד ומדוכא בזמן האחרון, אבל אני לא בטוח למה. אתה יכול לעזור לי להבין את זה ולהרגיש טוב יותר?
אליזה: אולי תרצה לעזור לך להבין את זה ולהרגיש טוב יותר?

שימו לב כיצד אליזה לוקחת את הטקסט שלי ומנסחת אותו מחדש, מחזירה את המוקד אלי ומעודדת אותי לדבר יותר ולא לדבר. גישה זו עובדת עבור לקוחות מסוימים אך הופכת במהרה למתסכלת וחסרת תועלת עבור אחרים.

עם התקדמות ה- AI והצ'טבוטים, הם הפכו למסוגלים לשיחות משכנעות יותר. בין אם המתכנתים עיצבו אותם לטיפול שלא, השיפורים בטכנולוגיה אפשרו להם לספק טיפול טוב בהרבה מאשר אליזה. ובכל זאת, רובוטים מודרניים הם בדרך כלל לא מספיק אינטליגנטים כדי להתחרות במטפל אנושי.

כיצד לזהות אישה גבולית

בוטים מודרניים שיכולים לספק טיפול בסיסי

על ידי יצירת מאגרי מידע גדולים יותר לבחירה ופיתוח תוכניות שיכולות לדבר על עצמן, יצרו מתכנתים רובוטים שיכולים לעבור ביתר קלות כמטפלים.

במהלך הכנס הקליני של Talkspace, עתיד הטיפול , פרופסור USC ומנהל חקר בני האדם הווירטואליים ג'ונתן גרץ ' הפגין כיצד צורות מודרניות של בינה מלאכותית יכולות לספק סינון קליני וטיפול בסיסי. גרץ 'הציג את אלי, AI שהוא נהג 'להעלות מדדים לדיכאון' במהלך מחקר.

כנס העתיד של הטיפול בג
Gratch נמצא בצד ימין של התמונה.

הנה חלק מהדיאלוג בין משתתף ב- המחקר של גרץ ' ואלי:

אלי: אז מה שלומך היום?
משתתף: אני מסתדר טוב.
אלי: זה טוב. מאיפה אתה במקור?
משתתף: אני מלוס אנג'לס.
אלי: אה, אני בעצמי מלוס אנג'לס.

בניגוד לאליזה, אלי הצליחה לדבר על עצמה וליצור שיחה ולא רק לנסח מחדש את התגובות שקיבלה. התוכנית מזהה הבעות פנים ומנתחת שמע ותנוחה, על פי Gratch. היא משתמשת בניתוח זה כדי לגבש את תגובתו ולהתאים את הטון שלה.

אף על פי כן, גראץ 'הודה כי אלי רחוקה מלהיות מסוגלת לספק את סוג ההבנה שיכול המטפל האנושי.

'זה לא מבין לעומק על מה אתה מדבר,' אמר גרץ '. 'אני לא רואה אותנו מסוגלים בטכנולוגיה בטווח הקרוב להצליח להבין באופן בסיסי את המטרות, המניעים והצרכים של האדם.'

אלי יושמה בצורה בטוחה. עם זאת, יכולות להיות השלכות שליליות כאשר בוט לא מצליח להבין רגשות ולסנן מידע במהלך שיחות רגישות ובעלי היקף גבוה כמו למשל בין מטפלים ללקוחות.

אחת הדוגמאות לכך הייתה יד , בוט שמיקרוסופט תוכנן ליצור אינטראקציה עם אנשים וללמוד מהם, תוך שינוי מתמיד של התגובות וההתנהגות שלו על סמך הטקסט שקיבלה. ליוצריו של טיי היה הרעיון הנורא לשחרר אותו בטוויטר, שם הוא יכול לתקשר עם כל אחד באינטרנט.

זה התחיל בתמימות, כשטאי השתמש בסלנג מהנה ובדיחות. אבל מכיוון שטוויטר מלא בטרולים, זה נגמר בתאי שפרץ תגובות גזעניות והכחיש את השואה.

כמה זמן נמשך adzenys
עמוד הטוויטר של טיי
מיקרוסופט סגרה את טיי והגנה על הציוצים שלה לאחר האירוע.

בוטים של מטפלים רגישים יותר, אך עדיין קיים סיכון לקבל תגובות נדיפות מלקוחות ולהחמיר את המצב במקום לנחם אותם.

האם הרובוטים יעלו על המטפלים האנושיים בעתיד הקרוב?

הרובוטים רחוקים עשרות רבות מלהתעלות על חשיבה יצירתית ויכולות אמפתיות של מטפלים. יש גם אפשרות שלעולם לא יוכלו להתחרות עם מטפלים. הם כלי קליני שימושי, אך רק מטפל בשר ודם יכול ליצור את הקשר הטיפולי הדרוש ללקוח כדי להתקדם משמעותית.