יושרה בספק, אמון בסיכון: מערכת היחסים החדשה בין סטודנטים למרצים
- פריזמה לומדת
- 11 באוג׳
- זמן קריאה 2 דקות

יושרה בספק, אמון בסיכון: מערכת היחסים החדשה בין סטודנטים למרצים
במציאות אקדמית שהולכת ומשתנה במהירות, נוכחות כלי הבינה המלאכותית היוצרת בכיתות ובמשימות הלימודיות מטלטלת את אחת מאבני היסוד של הלמידה באקדמיה: האמון בין המרצים לסטודנטים.
בעבר, עבודות אקדמיות ייצגו את הלמידה וההשקעה האישית של הסטודנטים והיו רכיב משמעותי לקביעת הציונים והערכה ע"י המרצים.
היום, כשהשימוש בכלי בינה מלאכותית יוצרת כמו ChatGPT נעשה רווח ונגיש יותר, כך גם הגבולות בין עבודה עצמאית לתוצר אוטומטי הולכים ומיטשטשים.
שימוש בכלי בינה מלאכותית אומנם יכול להיתפס כ"קיצור דרך" נוח עבור סטודנטים, אבל יש לו גם השפעות עליהם מכיוון לא צפוי- תחושות אי נוחות שצפות בקרב הסטודנטים עקב השימוש שלא ביושרה בכלי בינה מלאכותית.
מאמר שכתב וויל קולדוול/ Will Coldwell ופורסם בעיתון "The Guardian", עוסק במשבר חוסר האמון בעקבות שימוש בבינה מלאכותית יוצרת באקדמיה ובוחן את השימוש הגובר בכלי AI יוצרי תוכן על ידי הסטודנטים, ובמקביל את ההשלכות של תופעה זו על הסטודנטים, המרצים ומוסדות האקדמיה.
הוא מציג עדויות של סטודנטים שקיבלו ציונים גבוהים לאחר שימוש בבינה מלאכותית אך לא הצליחו ליהנות מההצלחה. התחושות שתיארו היו של מרירות, חוסר סיפוק עצמי, ולעיתים אף בושה.
ולא מדובר רק בתחושת אלו. במוסדות רבים מדווחים על שחיקה של אמון, כאשר מרצים מרגישים שהם חוקרים יותר מאשר מלמדים, וסטודנטים מרגישים שהם מואשמים גם כאשר הם פועלים בהגינות.
אחת הסיבות לכך היא הפנייה הגוברת לכלי זיהוי שמנסים לקבוע האם טקסט נכתב בעזרת בינה מלאכותית. אבל כאן מתגלה בעיה לא פחות מטרידה: שיעורי השגיאה של הכלים האלו גבוהים, והם בחלק גדול מהמקרים אינם יודעים להבחין בוודאות בין טקסט שנכתב בשפה תקינה ע"י גורם אנושי ובין טקסט שנוצר על ידי מערכת אוטומטית.
המשמעות? גם סטודנטים שמגישים עבודה אותנטית עלולים להיחשד, ולעיתים אף להיענש, על לא עוול בכפם.
מקרים כאלו כבר תועדו במספר אוניברסיטאות, ופגעו אנושות בתחושת הביטחון והאמון של הסטודנטים.
מהצד השני, גם מרצים לא חשים מוגנים.
רבים מדווחים שהם לא יודעים עוד על מה הם מסתמכים בבדיקת העבודות, ושהם נאלצים לפעול "בחשש" או "באינטואיציה" במקום בראיות ברורות.
כדי להחזיר את האמון, צריך לעבור מתפיסה של "מלחמה ברמאות" לתפיסה של "עיצוב למידה אחראית".
כך למשל מומלץ לעבור למשימות שדורשות רפלקציה אישית, תהליך הדרגתי, הצגה בעל פה או עבודה בקבוצות- שמקשות על שימוש לא אתי, ומעודדות חשיבה עצמאית.
בנוסף, כדאי להחליף את שיח ה"חשד" בשיח של שקיפות: הצגה ברורה של מדיניות השימוש בכלי בינה מלאכותית במסגרת תהליכי הלמידה במוסד האקדמי, עידוד חשיבה ביקורתית של הסטודנטים ביחס לכלים אלו הכוללת, בין היתר, הסבר על היתרונות לצד המגבלות, וכן שילוב הסטודנטים בשיח על יושר בתהליכי הלמידה.
כל אלה יסייעו בעיצוב סביבת למידה שמבוססת על אמון- ומחזירה את המיקוד לתהליך הלמידה.
11 אוגוסט 2025 // פריזמה על הבינה המלאכותית בהכשרה אקדמית #003
תגובות