Exit cross icon

בינה מלאכותית בקוד פתוח היא קריטית לכיוון העתידי ולזמינות הרחבה של בינה מלאכותית מכמה סיבות.

  1. דמוקרטיזציה של AI - היא הופכת מודלים מתקדמים של AI ומסגרות למידת מכונה לנגישים לחוקרים, מפתחים, עסקים וסטארטאפים, מה שמדלק חדשנות ומרחיב את ההשתתפות.
  2. שקיפות ואחריות - גישה פתוחה לאלגוריתמים, קוד ומודלים מאומנים מאפשרת בדיקה של קבלת החלטות AI, מסייעת באתיקה של AI, ממשל והפחתת הטיה.
  3. חינוך ופיתוח מיומנויות - בינה מלאכותית בקוד פתוח תומך בלמידה, הדרכה ושיתוף ידע, ויוצר הזדמנויות לסטודנטים, אנשי מקצוע וקהילות ברחבי העולם.

בינה מלאכותית בקוד פתוח וחדשנות מונעת על ידי קהילה

בינה מלאכותית במיקור פתוח מתיישרת עם התנועה הרחבה יותר לעבר ידע משותף, שיתוף פעולה פתוח והתקדמות קולקטיבית בטכנולוגיה. זה משקף את רוח יוזמת הקוד הפתוח (OSI) ואת הערכים של חדשנות מונעת על ידי קהילה.

AI, במיוחד AI גנרטיבי, התפוצץ בשנה האחרונה עם התקדמות מהירה ופריסה בעולם האמיתי. מבידור ועד גילוי תרופות, חיזוי מזג אוויר, עיצוב חומרים ותעשיות יצירתיות (כתיבה, תמונות, וידאו ומוזיקה), דגמי AI נוגעים כעת בכל מגזר.

שלא כמו תוכנה מסורתית, יישום AI כולל רכיבים מרובים - צינורות נתונים, תשתית הדרכה, מודלים ותהליכי הסקה. לכן, ההגדרה של AI בקוד פתוח חייבת להתפתח כדי לשקף את המורכבות הזו.

סדנת OSI והאתגר של הגדרת AI בקוד פתוח

OSI (יוזמת הקוד הפתוח) מובילה מאמץ להגדיר בינה מלאכותית בקוד פתוח עד אוקטובר 2024. בסדנה, המשימה שלנו הייתה ברורה אך מאתגרת: לבסס הגדרת AI מקובלת בקוד פתוח.

שלא כמו תוכנת קוד פתוח, שבה ההגדרות מבוססות היטב, AI מציג שכבות מורכבות חדשות. דגמי AI הם חפצים מורכבים עם צינורות מרובים, הדורשים איזון זהיר בין גישה פתוחה ליישום מעשי.

מיפוי ארבע החירויות ל- AI

ארבע החירויות של תוכנת קוד פתוח הן:

  • השתמש לכל מטרה, ללא אישור.
  • ללמוד ולבדוק איך זה עובד.
  • לשנות לכל מטרה, כולל תפוקות.
  • שתף בחופשיות, עם או בלי שינויים

הצוות שלנו מיפה את החירויות הללו ל- AI בקוד פתוח. הגענו למסקנה כי:

  • מסגרת ה- AI ומודל ה- AI המאומן חייבים להיות קוד פתוח.
  • הנמענים צריכים להיות מסוגלים לכוונן, ליישר ולהנדס מודלים במהירות.
  • אין צורך בשכפול מלא של הדגם המקורי (כולל כל נתוני האימון).

זה עולה בקנה אחד עם תוכנת קוד פתוח, שאינה דורשת פרויקטים לספק כל תלות כדי לעמוד בהגדרת הקוד הפתוח (OSD).

רכיבים של קוד פתוח AI

כדי להבהיר את ההיקף, תיארנו חמישה מרכיבים של יישומי AI:

  1. קוד - קוד מקור של מסגרת מודל AI (עומד ב- OSD).
  2. קוד הדרכה - סקריפטים וצינורות להכנת נתוני אימון (לא נדרש להיות פתוח).
  3. מודל - ארכיטקטורה, משקולות, הטיות והיפרפרמטרים (חייבים לעמוד ב- OSD).
  4. נתוני הדרכה - מערכי נתונים המשמשים באימון מודלים (קרוב יותר למדע פתוח, לא נדרש עבור OSD).
  5. נתוני משתמש - כוונון עדין של כניסות, אחזור נתונים, הנחיות (שווה ערך לקלט משתמש, מחוץ ל- OSD).

גישה זו מאזנת בין פרקטיות, פתיחות וחדשנות, ומבטיחה ש- AI יישאר נגיש מבלי להטיל דרישות לא מציאותיות.

בינה מלאכותית בקוד פתוח לעומת מדע פתוח

קוד פתוח AI ≠ מדע פתוח.

  • קוד פתוח AI = יכולת להשתמש, ללמוד, לשנות ולשתף מודלים AI.
  • מדע פתוח = דורש זמינות מלאה של נתוני אימון, תשומות ותהליכים לשחזור מודלים.

בינה מלאכותית בקוד פתוח מספקת חירויות מבלי לדרוש רבייה מלאה - מודל פרגמטי וידידותי לחדשנות.

התקדמות: ממשל AI וקונצנזוס קהילתי

עמיתים ב- LFAI & Data Generative AI Commons הרחיבו את הדיון הזה עם מסגרת של 15 רכיבים של פתיחות AI. מסגרת זו מראה כי קהילות שונות (חוקרים, מפתחים, ארגונים) דורשות רמות שונות של גישה.

המפתח הוא איזון:

  • מפתחים זקוקים להתאמה וכלים.
  • עסקים זקוקים לבהירות לגבי רישוי ותאימות.
  • קהילות זקוקות לאמון, שקיפות ושיתוף פעולה.

ככל שהבינה המלאכותית מתפתחת, על הקהילה לבנות קונצנזוס סביב הגדרות פתיחות כדי להבטיח שהחדשנות תשגשג תחת עקרונות AI בקוד פתוח.

מסקנה

בינה מלאכותית בקוד פתוח אינה מדע פתוח. אבל זו הדרך היעילה ביותר להבטיח חדשנות בינה מלאכותית אחראית, שקופה ושוויונית. על ידי יישום ארבע החירויות על מסגרות ומודלים של AI, ועל ידי עיסוק במאמצים מונעי קהילה כגון OSI ו- Generative AI Commons, אנו יכולים לעצב עתיד בר קיימא שבו AI נשאר פתוח, שיתופי פעולה ונגיש.

ד"ר עופר הרמוני

מייסד ומנהל AI ראשי

דוד אדלסון

מייסד ומנהל AI ראשי