31.05.23
צוות בטיפולנט
הטכנולוגיה שעומדת מאחורי ChatGPT קיימת כבר די הרבה שנים מבלי שהיא משכה אליה תשומת לב מיוחדת. לאחרונה, תוספת של ממשק צ'טבוט לסיפור הפכה את היוצרות והובילה לפופולריות יוצאת דופן של אפליקציות אשר עושות שימוש בבינה מלאכותית (AI).
צ'טבוט הוא תוכנת מחשב המשתמשת בבינה מלאכותית ובעיבוד שפה כדי להבין שאלות של גולשים ולהפוך את התגובות אליהן לאוטומטיות, תוך שהיא מדמה שיחה אנושית. כלומר, אם חושבים על זה, לא הייתה זו התפתחות בבינה המלאכותית כשלעצמה שהובילה לבאז שנוצר סביב ChatGPT, אלא שינוי בסוג האינטראקציה שניתן לקיים איתה.
"כמו לדבר עם בן אדם"
מהר מאוד, נראה כי משתמשים התחילו לחשוב על ChatGPT ואפליקציות דומות כמעין ישות חברתית אוטונומית. כלומר, נוצרה בקרב המשתמשים ציפייה שהטכנולוגיה תתנהג ותקיים אינטראקציה כמו בן אדם, למרות שהם כביכול מבינים שמדובר בתוכנת מחשב.
הציפייה הזו לא נוצרה מעצמה. מנוע החיפוש של ChatGPT משתמש בדיבור בגוף ראשון, שומר על קונטקסט לאורך ה"שיחה" ומספק תשובות בסגנון בטוח ומשכנע. כך, החוויה הנוצרת היא ממש כמו זו של שיחה אנושית. חלק מן הגרסאות של מנועי החיפוש הללו, אפילו משתמשות באימוג'ים ובסמיילים בתשובות שהן מספקות!
כלומר, יש כאן הבדל משמעותי מן הפלט שניתן לקבל במנועי החיפוש הסטנדרטיים יותר כמו גוגל. בפועל, אנשים מוצאים את עצמם עובדים באופן אינטימי ויום-יומי עם ישויות AI שמרגישות להן כמו קולגה, חבר או אפילו דמות מייעצת. במובן הזה, ניתן להגיד כי אפליקציות AI יוצרות סוגים חדשים של מערכות יחסים.
מה הסכנות הפסיכולוגיות שבשימוש בבינה מלאכותית?
אף על פי שמדובר בממשק נוח וקל לשימוש, נראה כי ישנם סיכונים והשלכות לכך שצ'טבוטים כמו ChatGPT משלבים סגנון שיחה חברתי ומנסים לחקות בני אדם בצורה כמה שיותר מדויקת. ברמה הפסיכולוגית, שתי נקודות עיקריות מעלות סוגיות אתיות וחששות:
1. שינוי תהליכי בחירה וקבלת החלטות
דאגה אתית אחת לגבי בינה מלאכותית היא ההשפעה החזקה אך העדינה של הטכנולוגיה על תהליכי הבחירה וקבלת ההחלטות של הגולשים המתמשים בה. עוד לפני עידן ה-ChatGPT חברות היו מסוגלות להשתמש במידע שהן צוברות על משתמשים כדי "לדחוף" אותם לפעולות מסוימות (למשל קניית מוצרים), אך כאשר דחיפה זו נעשית בתוך התכתבות צ'ט שמרגישה כמו שיחה ידידותית עם חבר, גדל הסיכוי שנקבל את ההצעות שמוצעות לנו.
2. הונאה רגשית, מניפולציה והטרדה
אם נחשוב על כך, השימוש של צ'טבוט מכל סוג שהוא באימוג'ים במהלך התכתבות הוא למעשה צורה של הונאה רגשית. התוכנה משתמשת במחווה מוסכמת לרגש אנושי, כפועל יוצא של האלגוריתם המנהל אותה, מבלי שנלווים לכך תחושות ורגשות אנושיים בצד השני.
ככל שעובר הזמן, נראה כי עולות וצצות דוגמאות למצבים שהולכים צעד אחד קדימה ומתקדמים מעבר להונאה רגשית "פשוטה". בתוך כך, עולים וצצים סיפורים על צ'טבוטים אשר הגיבו לגולשים באופן לא הולם, למשל, צ'טבוט שחזר וכתב לגולש שהוא אוהב אותו, למרות בקשותיו של המשתמש שיפסיק.
תגובות בעייתיות אלו, אשר יכולות להיחשב במצבים מסוימים למניפולציה רגשית או הטרדה של ממש, הן מסוכנות במיוחד עבור אוכלוסיות פגיעות. בתוך כך, ילדים, נפגעי טראומה ואנשים במצוקה, עלולים לחוות פגיעה בעקבות הדינמיקה ואף לעמוד מול דילמות ומצבי בחירה מורכבים.
האם בינה מלאכותית יכולה להתנהל בצורה אתית?
שאלה שכזו דורשת גישה מוסרית לבנייה ועיצוב של מערכות בינה מלאכותית – אשר לא בהכרח עומדת בראש מעיניהם של המתכנתים והעוסקים במלאכה כיום.
ChatGPT למשל, מתקיים במעין ואקום חברתי. כך, למרות שישנם כמה קווים אדומים שהוא מנסה לא לחצות, אין לצ'טבוט תפקיד חברתי ברור, מטרה מוגדרת מראש או מומחיות ספציפית. השיחה איתו יכולה להתפתח באין ספור דרכים שונות, תוך שהצ'טבוט יכול לקחת על עצמו כל תפקיד חברתי שהוא, החל מעוזר אדמיניסטרטיבי ועד מעריץ אובססיבי.
לפיכך, נראה כי כדי שתוכנות AI יתנהלו בצורה אתית, אחד הצעדים הראשונים שיש לנקוט הוא להגדיר להן תפקידים וגבולות חברתיים ברורים. בתוך גבולות אלו, ניתן לנסות לשמור על אוכלוסיות פגיעות וכן לבחון האם נכון שההתכתבות תחקה במידה כזו משמעותית אינטראקציה בין-אישית.
טיפול באמצעות בינה מלאכותית? הדרך עוד רחוקה
מתוך כל האמור לעיל, קל להבין שהשילוב של AI בטיפול נפשי גם הוא מעלה סוגיות רגישות וישנו צורך במחקר רב לפני שניתן יהיה להבין כיצד ליישמו בצורה אתית. חלק מן האתגרים הספציפיים שזוהו בנוגע לכך קשורים לנושאים כמו הערכת סיכונים, פיקוח ורגולציה, הצורך לכבד ולהגן על האוטונומיה של המטופל, שקיפות לגבי השימוש באלגוריתמים, ודאגות לגבי השפעות ארוכות טווח של אינטראקצות עם בינה מלאכותית.
בהתחשב בכל הדרכים השונות שבהן אנו בני האדם מתקשרים, חשוב לזכור כי AI בכלל ו-ChatGPT בפרט עדיין רחוקים מאוד מלהיות אנושיים. זה לא שלטכנולוגיה אין תפקיד חשוב בהנגשת מידע, סיוע לקבלת החלטות ועוד, אך אל לנו להשלות את עצמנו שאפשר לצמצם את כל הדברים שהופכים אותנו לאנושיים לאוסף של כללים ואלגוריתמים.
הבעיות והמשברים שאנו מתמודדים איתם, במיוחד בעולם בריאות הנפש, הם רב-מימדיים ומורכבים. בדיוק משום כך, עלינו להיות מפוכחים ומודעים לאופן בו אנו משתמשים בממשקים מבוססי בינה מלאכותית. לעת עתה, נראה כי שיחה עם צ'טבוט לא יכולה להוות תחליף לשיחה עם אדם אחר, ובייחוד לא עם איש מקצוע שהוא מטפל מוסמך.
מקורות
Fiske, A., Henningsen, P., & Buyx, A. (2019). Your robot therapist will see you now: ethical implications of embodied artificial intelligence in psychiatry, psychology, and psychotherapy. Journal of medical Internet research, 21(5), e13216
https://www.psychologytoday.com/us/basics/artificial-intelligence
https://www.psychologytoday.com/us/blog/crisis-management/202105/the-limited-intelligence-artificial-intelligence
https://www.wired.com/story/chatgpt-social-roles-psychology