לומד כמו תלמיד – יוצר השערות, טועה ומתקן את עצמו [עיבוד AI]
ניסוי "הכפלת הריבוע": ChatGPT הפתיע את המדענים כשהמציא פתרון משלו לבעיה מתמטית בת 2,400 שנה |
החוקרים בחרו בבעיה הקלאסית של "הכפלת הריבוע" כדי לבדוק אם AI יודע לחשוב ● המודל נתן תשובה נכונה אך בהמשך טעה בבעיה דומה ● החוקרים סבורים שהמודל "התנהג כמו לומד אנושי" ● הממצאים עשויים לשנות את אופן שילוב הבינה המלאכותית בהוראת מתמטיקה |
|
||||||||||||||||||||||
צוות חוקרים מאוניברסיטת קיימברידג' ומהאוניברסיטה העברית בירושלים בחן את ChatGPT בבעיה שהעסיקה פילוסופים עוד מימי אפלטון: כיצד להכפיל את שטח הריבוע. בניסוי התבקש המודל להציע פתרון לבעיה המפורסמת שבה תלמידו של סוקרטס טעה כשהכפיל את אורך הצלע במקום להשתמש באורך האלכסון. ChatGPT הצליח לפתור נכון את הבעיה, אך בהמשך, כשהתבקש להכפיל שטח מלבן, טען בטעות כי הדבר בלתי אפשרי בגאומטריה.
למידה או יצירתיות?
לדברי החוקר נדב מרקו, סיכוי קלוש שמודל השפה "שינן" תשובה כזו, מה שמעיד כי יצר השערות חדשות על בסיס ידע קודם. "בדיוק כמו תלמיד, ChatGPT ניסה להכליל את הפתרון הקודם - והגיע גם למסקנה שגויה" אמר. הוא ועמיתו הפרופסור אנדראס סטיליאנידס רואים בכך סימן שהמודל פועל במעין "אזור ההתפתחות הקרובה" - מונח מעולם החינוך המתאר את הפער בין מה שהתלמיד יודע לבין מה שהוא מסוגל לדעת בעזרת הנחיה מתאימה.
לקחים למערכת החינוך
החוקרים סבורים שהניסוי חושף פוטנציאל לשילוב בינה מלאכותית בהוראת מתמטיקה - כל עוד המורים והסטודנטים בודקים באופן ביקורתי את התשובות. "אי־אפשר להניח שהוכחות שמפיק ChatGPT נכונות", מדגיש סטיליאנידס. "צריך ללמד תלמידים לזהות שגיאות ולבקר את הפתרונות - ממש כמו בכיתה רגילה".
הצוות מתכנן לבדוק דגמים חדשים של בינה מלאכותית עם בעיות מורכבות יותר, ולשלב אותם עם מערכות גאומטריה הידודיות (אינטראקטיביות), כך שיוכלו לשמש כלי הוראה שמסייע לחשיבה יצירתית. הם מזהירים שלא למהר להסיק שמודלים "חושבים" כמו בני אדם, אך מסכימים שההתנהגות "דמוית תלמיד" היא צעד משמעותי בהבנת האופן שבו AI מייצר ידע חדש.
למידה או יצירתיות?
לדברי החוקר נדב מרקו, סיכוי קלוש שמודל השפה "שינן" תשובה כזו, מה שמעיד כי יצר השערות חדשות על בסיס ידע קודם. "בדיוק כמו תלמיד, ChatGPT ניסה להכליל את הפתרון הקודם - והגיע גם למסקנה שגויה" אמר. הוא ועמיתו הפרופסור אנדראס סטיליאנידס רואים בכך סימן שהמודל פועל במעין "אזור ההתפתחות הקרובה" - מונח מעולם החינוך המתאר את הפער בין מה שהתלמיד יודע לבין מה שהוא מסוגל לדעת בעזרת הנחיה מתאימה.
לקחים למערכת החינוך
החוקרים סבורים שהניסוי חושף פוטנציאל לשילוב בינה מלאכותית בהוראת מתמטיקה - כל עוד המורים והסטודנטים בודקים באופן ביקורתי את התשובות. "אי־אפשר להניח שהוכחות שמפיק ChatGPT נכונות", מדגיש סטיליאנידס. "צריך ללמד תלמידים לזהות שגיאות ולבקר את הפתרונות - ממש כמו בכיתה רגילה".
הצוות מתכנן לבדוק דגמים חדשים של בינה מלאכותית עם בעיות מורכבות יותר, ולשלב אותם עם מערכות גאומטריה הידודיות (אינטראקטיביות), כך שיוכלו לשמש כלי הוראה שמסייע לחשיבה יצירתית. הם מזהירים שלא למהר להסיק שמודלים "חושבים" כמו בני אדם, אך מסכימים שההתנהגות "דמוית תלמיד" היא צעד משמעותי בהבנת האופן שבו AI מייצר ידע חדש.
|
|
| מועדון VIP | להצטרפות הקלק כאן |
| פורומים News1 / תגובות |
| כללי | חדשות | רשימות | נושאים | אישים | פירמות | מוסדות |
| אקטואליה | מדיני/פוליטי | בריאות | כלכלה | משפט | סדום ועמורה | עיתונות |
| ניסוי "הכפלת הריבוע": ChatGPT הפתיע את המדענים כשהמציא פתרון משלו לבעיה מתמטית בת 2,400 שנה |
| תגובות [ 0 ] |
|
לכל התגובות
תפוס כינוי יחודי
|
||
| ברחבי הרשת / פרסומת |
| רשימות קודמות | |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| + כיתבו בפורומים של News1 | + חדשות נוספות ברשת | + הודעות נוספות ברשת | + בלוגרים ברשת |
| חדשות נוספות ברשת |
|
|
|
||
|
|
|||
|
|
|
||
|
|
|||
|
|
|
||
|
|
|||
|
|
|
||
|
|
|||
|
|
|
||

