שותפה, רותם פרלמן-פרחי, ועו"ד ד"ר לאורה ילינק במאמר על חוק השקיפות החדש בבינה מלאכותית בקליפורניה – מנקודת מבט משפטית.
ב-28 בספטמבר 2024, מושל קליפורניה חתם על הצעת החוק AB 2013, שנקראת "חוק השקיפות בבינה מלאכותית". חוק זה מחייב מפתחי בינה מלאכותית גנרטיבית לפרסם באתר האינטרנט שלהם מסמכים מסוימים הנוגעים לנתונים בהם השתמשו לאימון המערכות שלהם. החוק חל על בינה מלאכותית גנרטיבית ששוחררה החל מ-1 בינואר 2022, ומפתחים נדרשים לעמוד בדרישות החוק עד ל-1 בינואר 2026.
מי כפוף לחוק? החוק חל על "מפתחים" של בינה מלאכותית, כלומר כל אדם או גוף המפתח טכנולוגיה או שירות של בינה מלאכותית גנרטיבית או מבצע שינוי מהותי במערכת, והופך אותה לזמינה לשימוש בקליפורניה. כך שהתחום רחב, ומחייב גם ספקי שירותים העוסקים באימון חוזר או בכיול מחדש של דגמים קיימים של בינה מלאכותית גנרטיבית לעמוד בדרישות החוק.
היקף החוק: החוק מסדיר את השימוש ב"בינה מלאכותית גנרטיבית", המוגדרת כבינה מלאכותית "המסוגלת ליצור תוכן סינתטי נגזר, כגון טקסט, תמונות, וידאו ואודיו, המדמים את המבנה והמאפיינים של נתוני האימון של הבינה המלאכותית".
מה צריכים מפתחים לעשות כדי לעמוד בדרישות החוק? אם מפתח מספק מערכת בינה מלאכותית גנרטיבית לשימוש הציבור בקליפורניה, עליו לחשוף מסמכים מסוימים הנוגעים לנתונים בהם נעשה שימוש לאימון המערכת או השירות, כולל:
מקורות הנתונים או בעליהם, והאם המפתח רכש או רכש רישיון לשימוש בהם; הסבר על אופן השימוש בנתונים במערכת או בשירות; האם הנתונים כוללים נתונים המוגנים בזכויות יוצרים או בסימני מסחר; תקופת הזמן שבה נאספו הנתונים; והאם הנתונים כוללים "מידע אישי" או "מידע מצרפי של צרכנים" כפי שמוגדר בחוק פרטיות הצרכן בקליפורניה.
פטורים: AB 2013 לא חל על מערכות או שירותים של בינה מלאכותית גנרטיבית שנועדו אך ורק להבטחת אבטחה ושלמות, מיועדים אך ורק להפעלת כלי טיס במרחב האווירי הלאומי, או פותחו עבור ביטחון לאומי, צבא או הגנה, וזמינים רק לגורם פדרלי.
חוקים נוספים בנושא בינה מלאכותית בקליפורניה
יחד עם AB 2013, נחתמו מספר חוקים נוספים בנושא בינה מלאכותית בקליפורניה. כמה מהם מתמקדים בשימוש בבינה מלאכותית בתחומי הבריאות והחינוך; חוק נוסף מחייב סימון תכנים שנוצרו על ידי בינה מלאכותית בנסיבות מסוימות.
עם זאת, המושל הטיל וטו על הצעת החוק SB 1047, שנקראת חוק החדשנות הבטוחה והמאובטחת למודלים מתקדמים של בינה מלאכותית. הצעה זו, שנתמכה על ידי אילון מאסק ואנתרופיק, והתנגדה לה OpenAI, מטא וגוגל, הציעה דרישות בטיחות חדשות למודלים של בינה מלאכותית בקנה מידה גדול. המפתחים של מודלים גדולים, בין היתר, היו נדרשים ליישם יכולות כיבוי מלאות, לנסח פרוטוקולי בטיחות ואבטחה למניעת נזקים משמעותיים לתשתית הציבורית, ולעמוד בדרישות ביקורת מסוימות.