אין טוב בלי רע- ממה להיזהר בשימוש בAI

עידן ברוקס- יועץ משפטי, מלם תים

אין טוב בלי רע- ממה להיזהר בשימוש בAI

עידן ברוקס- יועץ משפטי, מלם תים

כלי הבינה המלאכותית (AI) מציעים יתרונות רבים למשתמשים והם טומנים בחובם פוטנציאל לשינויים מרחקי לכת בתחומים רבים, אולם השימוש בהם מעורר לא מעט חששות וסיכונים.

להלן מספר סיכונים שכדאי למשתמשים בכלי AI להכיר וגם מספר המלצות להפחתת הסיכונים –

פגיעה בפרטיות וחשיפת מידע רגיש ומסווג

המידע המוזן על ידי המשתמש לכלי AI (כגון תמונה, קוד או שאילתה אחרת), חושף את המשתמש ואת אלו שהמידע עליהם הוזן לפגיעה בפרטיות.

לדוגמה מגייס שהעלה קו”ח של מועמד לכלי AI כדי לבחון את התאמתו למשרה, או אשת מכירות שסיפקה נתונים עסקיים על לקוח או על הארגון שלה לצורך הכנת הצעת מחיר. במקרים אלו כלי AI עשוי להשתמש במידע וגם להנגישו בעתיד למשתמשים אחרים.

המלצה – לא לשתף מידע רגיש או סודי עם כלי ה-AI ולסגל שיטת עבודה שכוללת בקרה על הזנת המידע.

תוצרים שגויים ובעייתיים

כלי AI אומנו על מידע מסוים שעשוי להיות מוטה, לא נכון או לא מעודכן. מאחר שתוצרי הכלים נשענים על מידע כאמור הם עשויים להיות שגויים ואף להסב נזקים למשתמש ולארגון.

למשל:

  • למשל קוד שהופק ע”י כלי AI עלול להיות שגוי או אף להכיל קוד זדוני .
  • עו”ד בארה”ב נעזר ב-ChatGPT להכנת כתב תביעה, הצא’ט הפיק מספר פסקי דין שביססו את טענות התביעה, אלא שאותם פסקי דין מעולם לא ניתנו בפועל, כלומר מדובר במידע לא אמין .
  • צ’אטבוט וירטואלי של חברת התעופה איר קנדה נתן מענה שגוי לנוסע שהזין שאילתות על רכישת כרטיס טיסה. בקשתו של הנוסע לקבל החזר כספי סורבה, הוא תבע וזכה.

    המלצה – ככלל לא ניתן להסתמך בעיניים עצומות על התוצר שהתקבל. יש לבדוק את התוצרים ולאמת אותם – למשל לבקש הוכחות או ציטוטים ובכל מקרה לקרוא אותם בעין מאוד ביקורתית.

    ** מה שאומר שבעלי מקצוע אנושיים עדיין נדרשים כיוון שרק הם יוכלו לבצע ביקורת מקצועית על התוצר

תוצרים שגויים ובעייתיים

01

זכויות במידע ובתוצרים

המשתמש לא בהכרח ישמור על הזכויות שיש לו במידע שמוזן לכלי AI או בתוצר המתקבל מהכלים. שימוש בכלי AI יכול להקנות לאחרים, למשל ליצרנים, זכויות במידע או בתוצרים.

המלצה – רצוי לאשר מראש את השימוש בכלי AI מול המנהל, לבחון לא רק את התוצר המתקבל אלא גם את המידע שמוזן לכלים בניתוח אנושי.

02

אחריות מוגבלת של יצרני כלי AI

וב יצרני כלי AI מצמצמים מאוד את היקף האחריות שלהם לנזקים שנגרמים מהשימוש בהם, במיוחד בשימושים חינמיים. ולכן, אם יגרם נזק בשל השימוש בכלי AI על המשתמש לדעת שהוא ו/או הארגון שלו חשופים לאותם נזקים.

לסיכום, היכולת של כלים אלו לשדרד ולשכלל את הביצועים והתוצרים שלנו היא משמעותית ללא כל ספק- אך יש להשתמש בהם בחוכמה ובצורה ביקורתית .

כלי הבינה המלאכותית (AI) מציעים יתרונות רבים למשתמשים והם טומנים בחובם פוטנציאל לשינויים מרחקי לכת בתחומים רבים, אולם השימוש בהם מעורר לא מעט חששות וסיכונים.

להלן מספר סיכונים שכדאי למשתמשים בכלי AI להכיר וגם מספר המלצות להפחתת הסיכונים –

בדיקת מקורות

תמיד ודאו שהמידע שה-AI מציג מגיע ממקורות אמינים. אם יש ספק, בדקו את המקור בעצמכם.

הגדרות מדויקות

כאשר אתם מגדירים משימה ל-AI, ודאו שההנחיות ברורות ומדויקות כדי למנוע פלט לא רלוונטי או מטעה.

הכשרה על נתונים רלוונטיים

ודאו שה-AI מוכשרת על נתונים עדכניים ורלוונטיים לתחום העבודה שלכם, כדי להבטיח דיוק גבוה יותר.

הזהרה מתוכן מזויף:

שימו לב לתוכן שנראה לא אופייני או חריג; תוכן כזה עשוי להיות מזויף. תמיד בדקו פעמיים אם משהו נראה לכם חשוד.

על ידי קידום שימוש מושכל ובקרה בשימוש בבינה מלאכותית, נוכל לנצל את יתרונותיה תוך מניעת הסכנות והמכשולים האפשריים. הבה נשמור על קדמה טכנולוגית בריאה ובטוחה!

בדוגמאות נוספות מסביב לעולם, נרשמו מקרים של שימוש בתוכן מזויף שנוצר באמצעות בינה מלאכותית:

01

בארצות הברית, במהלך הפריימריז של המפלגה הדמוקרטית בניו המפשייר, שיחת רובוט מדומה בקולו של נשיא אמריקה ג’ו ביידן יעצה לבוחרים שלא להשתתף בבחירות, טוענת שזה ישפיע על זכאותם לבחירות הכלליות.

02

בבנגלדש, הופצו סרטוני דיפפייק של פוליטיקאים מהאופוזיציה במצבים מביכים, כמו למשל רומין פרחנה בביקיני וניפון רוי בבריכת שחייה, לפני הבחירות הלאומיות​ (LatestLY)​.

למידע נוסף, אני ממליץ לעקוב אחרי כתבות בעיתונות המקומית והבינלאומית שמדווחות על שימושים נוספים והשלכותיהם של תוכן מזויף שנוצר באמצעות בינה מלאכותית

הצללים של האמת

מלאו את הטופס , אישור יישלח בהודעה נפרדת לתיבת הדואר