הצדדים האפלים של ה-AI;
ניווט בין הסיכונים

ליאב בנדור- יועצת משפטית מלם תים

בימים אלו, כשמחוללי הבינה המלאכותית למיניהם מייצרים בדקות בודדות תוצרים שלאדם מקצועי היה לוקח ימים או יותר, אפשר כבר להבין את הסיכונים שיש במחוללים כאלה, ואת האופן בו סיכונים אלה עשויים לבוא לידי ביטוי במטאוורס העתידי.

אנחנו נוטים להתלהב מיכולות הבינה המלאכותית, בעיקר במקומות בהם הכלים הללו מבצעים פעולות לכאורה “אנושיות” – פעולות שדורשות שיקול דעת וקבלת החלטות. אבל אם נסקור את תהליך הלמידה וקבלת ההחלטות של ה-AI, יש חשש שה-AI יפעל מתוך הטיות ותפיסות שבעולם המודרני אנחנו דווקא מנסים למגר.

הצדדים האפלים של ה-AI; ניווט בין הסיכונים

ליאב בנדור
יועצת משפטית מלם תים

בימים אלו, כשמחוללי הבינה המלאכותית למיניהם מייצרים בדקות בודדות תוצרים שלאדם מקצועי היה לוקח ימים או יותר, אפשר כבר להבין את הסיכונים שיש במחוללים כאלה, ואת האופן בו סיכונים אלה עשויים לבוא לידי ביטוי במטאוורס העתידי.

אנחנו נוטים להתלהב מיכולות הבינה המלאכותית, בעיקר במקומות בהם הכלים הללו מבצעים פעולות לכאורה “אנושיות” – פעולות שדורשות שיקול דעת וקבלת החלטות. אבל אם נסקור את תהליך הלמידה וקבלת ההחלטות של ה-AI, יש חשש שה-AI יפעל מתוך הטיות ותפיסות שבעולם המודרני אנחנו דווקא מנסים למגר.

למידת המכונה מבוססת על אימון באמצעות מאגרי מידע שמזינים אל המערכת במטרה לאפשר לה למצוא תבניות משותפות ולבנות מהן מודל. אם מאגרי המידע הללו לא יהיו מגוונים מספיק – תיווצר בהכרח הטיה של ה-AI. כך לשם הדוגמה, אם המכונה למדה, שבאופן סטטיסטי עבריינים מגיעים מרקע מסוים, והם בעלי נראות ומאפיינים מסוימים – סביר להניח שכאשר נאשם בעל מאפיינים התואמים את המודל יעמוד מולה היא תכריע שהוא אשם וזאת בשל ההטיה האינהרנטית של המודל – לא כי זה נכון. באופן דומה, אם תהליכי מיון לתפקידים בעולם העבודה יבוצעו על ידי בינה מלאכותית שלמדה שאלו תפקידים שבדר”כ מבצעים אנשים ממגדר מסוים, עם רקע מסוים – היא פשוט תתעלם ממועמדים שבאים מרקע או ממגדר אחר.

החשש הגדול ביותר, הוא שהבינה המלאכותית עשויה להפוך להיות המכונה המושלמת לייצרFake News באופן שישנה את התודעה של האנשים ביחס לאנשים, לחדשות ולאירועי עבר.

כלי AI יכולים כבר היום לשנות סרטים ותמונות ולהציג מצג שווא, או לשייך באופן אמין מאוד יצירות ליוצרים אחרים (גם שלא בכוונת זדון) ובכך לעוות את ההיסטוריה. בנוסף, בעזרת מחוללי AI, טכנולוגיות Deep Fake ותוך שימוש בתמונות שאנחנו המשתמשים מעלים בעצמנו יום יום לרשתות החברתיות ולאפליקציות ייעודיות, גורמים עוינים יוכלו ליצור בקלות יחסית אוואטארים (כפילים וירטואליים שלנו) ולהתחזות אלינו או לאנשים אחרים, בעולם הדיגיטלי בכלל ובמטאוורס בפרט.
למרות התכניות של חברות כמו מטא לתייג ולסמן במטאוורס באופן שונה אוואטארים אמיתיים לעומת אוואטארים מזויפים, כבר עכשיו ברור שהזיהוי של אוואטארים מזויפים לא יהיה פשוט וככל הנראה לא יהיה מענה מלא לחשש הזה. למעשה נוצר לנו פה קונפליקט. מצד אחד, אנחנו רוצים ליצור לעצמנו אוואטארים כמה שיותר מציאותיים ולכן נרצה לאפשר לטכנולוגיה לקלוט ולשמור את התנועות של המשתמשים, את תגובות הגוף שלהם, את שפת הגוף שלהם בזמן שיחה וכו’. אבל ניתוח מידע זה יאפשר להסיק מסקנות נוספות על המשתמש, לרבות על דפוסי ההתנהגות והרגלי הצריכה שלו, באופן שיקל לזייף אוואטרים, דבר שעלול להוביל לגניבת זהות ממש.

העולם הדיגיטלי אוסף עלינו מידע ונתונים אישיים רבים. ככל שאנחנו פעילים יותר ברשת – החשיפה הלא מודעת שלנו ברשת הולכת וגדלה ומבלי שאנחנו מודעים לכך -חברות שונות אוספות עלינו DATA רבה יותר ולעיתים פולשנית יותר.

המטאוורס אמור להיות שילוב של חוויות מקוונות ולא מקוונות שאותן נחווה תוך כדי שימוש בהתקנים לבישים עם חיישנים כמו משקפי VR, כפפות הפטיות, התקנים של זיהוי קולי ועוד, שישדרו בזמן השימוש בהם מידע מהגוף שלנו. למשל, על איזו פרסומת התעכבנו, איזה תוכן משך את תשומת ליבנו, איזו פעולה ריגשה אותנו ועוד. כל הדברים האלה מתורגמים ברמה הפיסית לנתונים ודאטה שיאפשרו לפלטפורמות השונות להבין מה עובר לנו בראש ואפילו לחזות את ההתנהגות שלנו. מכאן, עולים חששות של הגנת הפרטיות – מי ישמור את המידע הזה ואילו שימושים הוא יכול לעשות בו?
החששות הנ”ל מתווספים לאיומים שאנחנו מכירים כבר היום כסיכונים הקיימים ברשת, כגון השפעות פסיכולוגיות בעייתיות, הטרדות, אלימות ובריונות. למעשה, כבר היום יש תלונות על אלימות והטרדות מיניות במטאוורס, בעיקר כלפי נשים ובמטאוורס – החוויה מרגישה כמעט אמיתית.
מטבע הדברים, ברגע שמיליוני משתמשים מרחבי העולם עושים שימוש בו זמנית במגוון טכנולוגיות מתקדמות ב”מרחב” אחד ותוך שימוש בכלי AI ולא ע”י בני אדם אמיתיים, כל הסיכונים הנ”ל מתגברים ואין לנו בנמצא רגולציה או מדיניות אחת אחידה שיכולה להתמודד עם כל הסיכונים הללו. החוקים הקיימים בכל מדינה לא יתאימו לעולם הדיגיטלי העתידי, ונדרש לתכנן וליישם כבר היום תקן אחיד שיביא בחשבון שיטות עבודה מומלצות, לרבות טיפול יזום מראש בבטיחות, בפרטיות ובאתיקה תוך כיבוד הנתונים של המשתמשים וייתן מענה לחששות העולים מהעבודה עם מחוללי בינה מלאכותית בעולם הדיגיטלי.

המטאוורס אמור להיות שילוב של חוויות מקוונות ולא מקוונות שאותן נחווה תוך כדי שימוש בהתקנים לבישים עם חיישנים כמו משקפי VR, כפפות הפטיות, התקנים של זיהוי קולי ועוד, שישדרו בזמן השימוש בהם מידע מהגוף שלנו. למשל, על איזו פרסומת התעכבנו, איזה תוכן משך את תשומת ליבנו, איזו פעולה ריגשה אותנו ועוד. כל הדברים האלה מתורגמים ברמה הפיסית לנתונים ודאטה שיאפשרו לפלטפורמות השונות להבין מה עובר לנו בראש ואפילו לחזות את ההתנהגות שלנו. מכאן, עולים חששות של הגנת הפרטיות – מי ישמור את המידע הזה ואילו שימושים הוא יכול לעשות בו?
החששות הנ”ל מתווספים לאיומים שאנחנו מכירים כבר היום כסיכונים הקיימים ברשת, כגון השפעות פסיכולוגיות בעייתיות, הטרדות, אלימות ובריונות. למעשה, כבר היום יש תלונות על אלימות והטרדות מיניות במטאוורס, בעיקר כלפי נשים ובמטאוורס – החוויה מרגישה כמעט אמיתית.
מטבע הדברים, ברגע שמיליוני משתמשים מרחבי העולם עושים שימוש בו זמנית במגוון טכנולוגיות מתקדמות ב”מרחב” אחד ותוך שימוש בכלי AI ולא ע”י בני אדם אמיתיים, כל הסיכונים הנ”ל מתגברים ואין לנו בנמצא רגולציה או מדיניות אחת אחידה שיכולה להתמודד עם כל הסיכונים הללו. החוקים הקיימים בכל מדינה לא יתאימו לעולם הדיגיטלי העתידי, ונדרש לתכנן וליישם כבר היום תקן אחיד שיביא בחשבון שיטות עבודה מומלצות, לרבות טיפול יזום מראש בבטיחות, בפרטיות ובאתיקה תוך כיבוד הנתונים של המשתמשים וייתן מענה לחששות העולים מהעבודה עם מחוללי בינה מלאכותית בעולם הדיגיטלי.

למידת המכונה מבוססת על אימון באמצעות מאגרי מידע שמזינים אל המערכת במטרה לאפשר לה למצוא תבניות משותפות ולבנות מהן מודל. אם מאגרי המידע הללו לא יהיו מגוונים מספיק – תיווצר בהכרח הטיה של ה-AI. כך לשם הדוגמה, אם המכונה למדה, שבאופן סטטיסטי עבריינים מגיעים מרקע מסוים, והם בעלי נראות ומאפיינים מסוימים – סביר להניח שכאשר נאשם בעל מאפיינים התואמים את המודל יעמוד מולה היא תכריע שהוא אשם וזאת בשל ההטיה האינהרנטית של המודל – לא כי זה נכון. באופן דומה, אם תהליכי מיון לתפקידים בעולם העבודה יבוצעו על ידי בינה מלאכותית שלמדה שאלו תפקידים שבדר”כ מבצעים אנשים ממגדר מסוים, עם רקע מסוים – היא פשוט תתעלם ממועמדים שבאים מרקע או ממגדר אחר.

החשש הגדול ביותר, הוא שהבינה המלאכותית עשויה להפוך להיות המכונה המושלמת לייצרFake News באופן שישנה את התודעה של האנשים ביחס לאנשים, לחדשות ולאירועי עבר.

כלי AI יכולים כבר היום לשנות סרטים ותמונות ולהציג מצג שווא, או לשייך באופן אמין מאוד יצירות ליוצרים אחרים (גם שלא בכוונת זדון) ובכך לעוות את ההיסטוריה. בנוסף, בעזרת מחוללי AI, טכנולוגיות Deep Fake ותוך שימוש בתמונות שאנחנו המשתמשים מעלים בעצמנו יום יום לרשתות החברתיות ולאפליקציות ייעודיות, גורמים עוינים יוכלו ליצור בקלות יחסית אוואטארים (כפילים וירטואליים שלנו) ולהתחזות אלינו או לאנשים אחרים, בעולם הדיגיטלי בכלל ובמטאוורס בפרט.
למרות התכניות של חברות כמו מטא לתייג ולסמן במטאוורס באופן שונה אוואטארים אמיתיים לעומת אוואטארים מזויפים, כבר עכשיו ברור שהזיהוי של אוואטארים מזויפים לא יהיה פשוט וככל הנראה לא יהיה מענה מלא לחשש הזה. למעשה נוצר לנו פה קונפליקט. מצד אחד, אנחנו רוצים ליצור לעצמנו אוואטארים כמה שיותר מציאותיים ולכן נרצה לאפשר לטכנולוגיה לקלוט ולשמור את התנועות של המשתמשים, את תגובות הגוף שלהם, את שפת הגוף שלהם בזמן שיחה וכו’. אבל ניתוח מידע זה יאפשר להסיק מסקנות נוספות על המשתמש, לרבות על דפוסי ההתנהגות והרגלי הצריכה שלו, באופן שיקל לזייף אוואטרים, דבר שעלול להוביל לגניבת זהות ממש.

העולם הדיגיטלי אוסף עלינו מידע ונתונים אישיים רבים. ככל שאנחנו פעילים יותר ברשת – החשיפה הלא מודעת שלנו ברשת הולכת וגדלה ומבלי שאנחנו מודעים לכך -חברות שונות אוספות עלינו DATA רבה יותר ולעיתים פולשנית יותר.

המטאוורס אמור להיות שילוב של חוויות מקוונות ולא מקוונות שאותן נחווה תוך כדי שימוש בהתקנים לבישים עם חיישנים כמו משקפי VR, כפפות הפטיות, התקנים של זיהוי קולי ועוד, שישדרו בזמן השימוש בהם מידע מהגוף שלנו. למשל, על איזו פרסומת התעכבנו, איזה תוכן משך את תשומת ליבנו, איזו פעולה ריגשה אותנו ועוד. כל הדברים האלה מתורגמים ברמה הפיסית לנתונים ודאטה שיאפשרו לפלטפורמות השונות להבין מה עובר לנו בראש ואפילו לחזות את ההתנהגות שלנו. מכאן, עולים חששות של הגנת הפרטיות – מי ישמור את המידע הזה ואילו שימושים הוא יכול לעשות בו?
החששות הנ”ל מתווספים לאיומים שאנחנו מכירים כבר היום כסיכונים הקיימים ברשת, כגון השפעות פסיכולוגיות בעייתיות, הטרדות, אלימות ובריונות. למעשה, כבר היום יש תלונות על אלימות והטרדות מיניות במטאוורס, בעיקר כלפי נשים ובמטאוורס – החוויה מרגישה כמעט אמיתית.
מטבע הדברים, ברגע שמיליוני משתמשים מרחבי העולם עושים שימוש בו זמנית במגוון טכנולוגיות מתקדמות ב”מרחב” אחד ותוך שימוש בכלי AI ולא ע”י בני אדם אמיתיים, כל הסיכונים הנ”ל מתגברים ואין לנו בנמצא רגולציה או מדיניות אחת אחידה שיכולה להתמודד עם כל הסיכונים הללו. החוקים הקיימים בכל מדינה לא יתאימו לעולם הדיגיטלי העתידי, ונדרש לתכנן וליישם כבר היום תקן אחיד שיביא בחשבון שיטות עבודה מומלצות, לרבות טיפול יזום מראש בבטיחות, בפרטיות ובאתיקה תוך כיבוד הנתונים של המשתמשים וייתן מענה לחששות העולים מהעבודה עם מחוללי בינה מלאכותית בעולם הדיגיטלי.

דוגמא לסרטון Fake

לא ניתן לזהות שהדברים הושתלו בפי הדובר והוא מעולם לא אמר אותם- מוזמנים לצפות מ4:39

דוגמא לסרטון Fake

לא ניתן לזהות שהדברים הושתלו בפי הדובר והוא מעולם לא אמר אותם- מוזמנים לצפות מ4:39

הצדדים האפלים של המטאוורס וה-AI ניווט בין הסיכונים

מלאו את הטופס , אישור יישלח בהודעה נפרדת לתיבת הדואר