האבולוציה של אנליטיקה בארגון

Data is the new Oil

כך לפחות נהוג להגיד. Data הפכה להיות שיחת היום בקרב הנהלות ארגונים, והנושא מתחיל לקבל את החשיבות הראויה לו כ Enabler של מהלכים עסקיים, כאמצעי לעמידה ברגולציות מחייבות, וגם כתחום משמעותי לצורך הישרדות בשנים הקרובות.

חברות כיום מוערכות כלכלית יותר ויותר על סמך הדאטה שברשותן, וגם על סמך הדאטה הפונטנציאלי שעשוי להיות ברשותן (המנגנונים שהן מצליחות לייצר ולקלוט דאטה/ "קולטני מידע") ועל סמך היכולת שלהן להעשיר ולנהל את הנתונים שבבעלותן.

אולם ככל שארגונים אוגרים ואוספים יותר ויותר דאטה, וככל שיכולות איסוף, אחסון, עיבוד וניהול הדאטה (Big Data) משתכללות, מתבהרת גם ההבנה שאיסוף דאטה זהו רק תנאי הבסיס.

Data Driven Businesses

ארגונים שואפים להפוך ולהיות Data-Driven, מה זה בדיוק אומר?

Data -> Insights -> Action

  1. DATA: להיות מסוגלים לנהל היטב דאטה, לאסוף, לאגור, לחבר תשתיות נתונים שונות, להעשיר את הדאטה כל הזמן ולייצר שכבת דאטה אמינה, מנוהלת, עם מעטפת של Data Governance.
  2. INSIGHTS: לייצר תובנות על סמך אותה שכבת דאטה, יצירת מודלים אנליטיים ואלגוריתמים על ידי אנליסטים ו Data Scientists תוך שימוש בכלי אנליטיקה ואנליטיקה מתקדמת.
  3. ACTION: אין ספק שזהו השלב המאתגר והחמקמק ביותר. לייצר מנגנונים תפעוליים שיאפשרו לארגון לפעול כל הזמן על סמך אותן תובנות (ולא על סמך "תחושת בטן" לדוגמה), כל יום ובכל נקודת החלטה.

1

לכולנו ברור שאנחנו לא ממצים את פוטנציאל הדאטה במובן של ההחלטות והפעולות שאנו נוקטים, אשר אינן מתבססות על דאטה אלא יותר על רגשות, כוח האינרציה (כך פועלים בארגון שלנו), העדפות פרסונליות ועוד. אבל עד כמה אנחנו לא מספיק פועלים על סמך הדאטה ש*פוטנציאלית* יכול היה להוות הבסיס לפעולה? על פי מחקר של חברת Pivotal, רק כ-0.5% מהData בעולם הנו Operationalized Data! הפוטנציאל הוא כמעט אינסופי (כמות הדאטה הפוטנציאלית היא כמעט אינסופית, והאופן בו נוכל להסתמך על דאטה בקבלת החלטות תלוי בעיקר בדמיון שלנו, ביצירתיות המחשבתית, ובהבנה כיצד דאטה ותובנות יכולים להשפיע בארגון שלנו).

AI, AI, AI! מה הייתה השאלה?

למרות שהמונח AI הפך להיות המונח השיווקי החם ביותר כיום (מחליף את המונח ביג דאטה שעד לא מזמן כיכב בראש מצעד הבאזוורדים), טכנולוגיות בינה מלאכותית (AI) ומחשוב קוגניטיבי הן תוצאה של התפתחות אבולוציונית רבת שנים ולא מהפכה שהתרחשה רק בשנים האחרונות. אולם כן ישנה הרגשה שטכנולוגיות AI הגיעו לנקודת ציון משמעותית לאחרונה, בשל צירוף של שתי תופעות טכנולוגיות:

  • זמינות גבוהה של כמויות נתונים משמעותיות (Data Sets גדולים) שהפכו להיות זמינים לנו רק לאחרונה. קיומם של Data Sets עצומים הנו תנאי בסיס להתקדמות משמעותית בתחום.
  • יכולות עיבוד וכוח חישובי זמין וזול יחסית

AI הנו מונח רחב וגמיש מאוד, תחתיו נכנסים עוד הרבה תתי-תחומים, חלקם קיבלו דחיפה משמעותית וזכו לפריצות דרך של ממש לאחרונה, כמו תחום העיבוד החזותי, עיבוד שפה ועוד.

2

בתוך עולם ה-AI טכנולוגיות מבוססות רשתות נוירונים, ובמיוחד תחום ה-Deep Learning-  DL, מהווה התחום הצומח ביותר עם אחוזי גידול של 200-300% בקצב האימוץ על ידי Data Scientists. על פי סקר של KD Nuggets, ב 2016, 18% מ Data Scientists כבר עשו שימוש ב DL לפחות בפרויקט עובד אחד. על פי תחזית גרטנר, עד 2018 אצל כ-80% מה Data Scienists בעולם, השימוש ב Deep Learning יהפוך להיות עוד כלי סטנדרטי בארגז הכלים שלהם.

היכן אנו מצויים ברצף ההתפתחות האבולוציונית של עולם האנליטיקה?

כבר ברור כי שלב ה"BI הקלאסי" מוצה ברוב הארגונים בתעשיות השונות, ובתחומים השונים בארגון (פיננסים, שיווק, לוגיסטיקה, תפעול, משאבי אנוש – התחום האחרון שנכנס לנושא רק לאחרונה), כלומר, אנו לרוב כן יכולים לשאול "מה קרה בעבר"? ולקבל תשובה טובה. רובנו גם התקדמנו ליכולת לבצע Analysis, חיתוכים והתסכלות מעמיקה על הנתונים בחתכים שונים כדי לענות גם על השאלה "מדוע זה קרה"? חלקנו עושים זאת באמצעות קוביות, חלקנו באמצעות סביבות של ויזואליזציה ו Data Discovery אולם עדיין מדובר על נתוני עבר והסתכלות רטרוספקטיבית.

השלב הבא באבולוציה היווה קפיצה משמעותית מבחינת הערך והתועלת העסקית בארגונים, והוא תחום ה Predictive Analytics: היכולת לשאול "מה עתיד לקרות"? זהו תחום ותיק שניתן למצוא שימושים מסוימים שלו בלא מעט ארגונים, אולם המפגש של תחום זה עם עולם הביג דאטה ועם תחום ה-ML (השלב האבולוציוני הבא) מאפשר לנו להבין יותר טוב את הדאטה, וזו תועלת משמעותית ככל שאנו עובדים עם מגוון יותר גדול של נתונים (חלקם לא מובנים) ונפחי נתונים משמעותיים. כתוצאה מהבנת הדאטה, הישויות, הנושאים, הקשרים, ה Features, אנו יכולים להבין איזה סוג שאלות אנחנו יכולים בכלל לשאול ומה כדאי לנו להמשיך ולחקור. כאן סוג המחקר הוא יותר Exploratory: אנו פחות נדע מראש מה השאלה, נגלה אותה תוך כדי מחקר ושיטוטים בדאטה. David McCandless ("Data Jounalist" ואמן נתונים שעוסק בויזואליזציה והצגה מתוחכמת של נתונים בדרכים המובילות לפעולה) טען ש Data is not the new Oil, לדעתו הגדרה מדויקת יותר היא Data is the new Soil (אדמה). בדאטה יש לשחק, לחפור, עד שמגיעים למשהו מעניין ומתוכו ניתן להצמיח נבטים של תובנות משמעותיות מאוד.

בשלב זה אנחנו כבר מתחילים להתקרב לשלב ה-Prescriptive (תנסו להגיד את המלה הזו 5 פעמים ברציפות, נראה אתכם). Prescriptive Analytics עונה על השאלה: "כיצד יש לפעול על סמך הדאטה"? מה צריך לעשות? דאטה שמוביל לפעולה.

מהי הקפיצה הבאה, אליה עדיין לא הגענו? Autonomous Decisions – מכונות שלא רק ישאלו את השאלות בעצמן, אלא גם יחליטו על סמך התשובות בעצמן ויבצעו את הפעולה בעצמן. Data-insights-actions באופן אוטונומי. ישנם תהליכים מסוימים ב Domain מצומצם שכבר עובדים בתצורת Autonomous decisions, אולם באופן כללי לא הגענו לרמת חוכמת AI "כללית" (General AI) שאינה צריכה שאנו, האנשים, נאכיל אותה – במבנה הדאטה, במשמעות ובמנגנון ההסקה והפעולה.

3

במפגש שולחן עגול שקיימנו לאחרונה בנושא, עלה כי התחום בישראל מעניין ארגונים רבים אבל כמעט כולם מרגישים ש"הם עוד לא שם", ה Use Case כלל לא ברור (החסם העיקרי בעולם כיום לאימוץ AI בארגונים – לכל מי שעוסק בתחום הביג דאטה זה יישמע מאוד מוכר מהשלב ההתחלתי שאפיין את השוק לפני שנתיים). עלתה התחושה הכללית שפוטנציאל הדאטה לא ממומש, כי הארגון "עוד לא שם" ושהם עדיין די רחוקים מהדגמת איזשהו ערך עסקי מוחשי. רוב הארגונים כבר עברו (או עוברים בימים אלה) מBI קלאסי להוספת ממד ה Data Discovery ו Self Service (בנוסף לדוחות הקלאסיים). כמחצית מהארגונים כבר מתנסים כיום ב Predictive Analytics אולם באזורים מאוד ספציפיים בארגון (ניהול סיכונים/ מניעת נטישה/ גילוי הונאה וכד').

כלים טכנולוגיים:

בעוד שבעולם ה-BI הקלאסי ישנה שאיפה לסטנדרטיזציה עם כלי ארגוני סטנדרטי אחד (או לפחות ניסיון משמעותי להפחתת מספר הכלים השונים, בניסיון להשיג יותר שליטה על השכבה הסמנטית ועל אופן השימוש בנתונים), בתחום ה-Data Science – היותר חדש, ישנה נכונות גדולה יותר לנסות מגוון של כלים ולתת למשתמשים יותר עצמאות באופן ניתוח במידע, גם אם זה אומר שימוש במספר כלים שונים וויתור מסוים על רמת השליטה באופן השימוש בנתונים לעת עתה.

כלומר ישנו שינוי תפיסתי בהתייחסות לכלים הטכנולוגיים – בשכבת אחזור המידע.

על פי סקר של KD Nuggets, כ-18% מ Data Scientists שנשאלו בסקר ענו כי הם כבר התנסו בפועל בפרויקט המערב יכולות מבוססות Deep Learning (עלייה של 200% לעומת השנה שעברה). DS משתמשים בממוצע בכ-3 כלים שונים לוויזואליזציה וניתוח המידע.

על פי סקר של KDNuggets על הכלים בהם DS מעידים כי הם עושים שימוש:

4

 Data Management, Data Governance ומה שביניהם

במפגש שערכנו בנושא Data Driven Businesses לאחרונה עסקנו בחשיבות של ניהול ומשילות נתונים באופן מרכזי בארגון.

ה CDOs – Chief Data Officers

מה עדיין חסר?

עם כל ההשקעה שנעשתה באיסוף דאטה וגזירת תובנות על מנת לשפר מהלכים והחלטות עסקיות, מה עדיין חסר? ולמה רוב הארגונים לא באמת פועלים על סמך הדאטה?

אין ספק שהפכנו להיות אלופים באיסוף דאטה. טכנולוגיות ביג דאטה מאפשרות לנו לעשות את זה אפילו יותר טוב, וארגונים מתארגנים כיום עם אנשים (CDOs, Data Governance organizations) וכלים (כלי ניהול נתונים, EIM, Data Governance Tools) על מנת לנהל יותר טוב את שכבת הדאטה ולהפוך אותה לבסיס טוב לקבלת החלטות והסתמכות על נתונים.

אנחנו גם לא רעים ביכולת לגזור תובנות ומודלים אנליטיים על סמך הדאטה שברשותנו. וניתן לראות שאנו מתקדמים ונעים במסלול הזה בכיוון טוב. אנליסטים עוברים הכשרות להפוך להיות Data Scientists, יותר אנשים בארגון מעוניינים בגישת ה Self Service ובאופן כללי התחום נע בכיוון החיובי.

הבעייתיות נעוצה בשלב ה Action. וזה נובע לטעמנו משתי סיבות שונות:

  1. סיבה "פסיכולוגית" – אנשים מרגישים יותר בנוח להסתמך על תחושת הבטן שלהם לקבלת החלטות מאשר על נתונים. להפוך להיות ארגון Data Driven זה לא רק טכנולוגיה, זו תפיסה, תרבות, וזה תהליך שלוקח זמן.
  2. סיבה תפעולית – בארגונים כיום לא קיימת התשתית התהליכית שמתרגמת תובנות לפעולות. האוטומציה נעצרת איפשהוא בשלב גזירת התובנות. כיצד נוודא שתובנה מסוימת מפעילה פעולה בצורה אוטומטית? בתחום ה AI אחד התחומים המעניינים ביותר כיום הוא תחום ה Decision Management – תחום שכולל בתוכו כלים בסגנון מנועי CEP – Complex Event Processing, מנועי חוקה וכלים נוספים המניעים לכיוון יישום התובנות בקבלת החלטות וביצוע פעולות. בנוסף, ספקי מערכות עסקיות (ERP, CRM, Marketing automation, Supply Chain Management) יקלו על החיבור הזה בעתיד מכיוון שבבסיס של מערכות אלה תהיה שכבת AI שתסייע להניע תהליכים "יותר חכמים" תוך חיבור בין עולם התוכן התפעולי ואנליטי – Embedded analytics בתוך תהליכים.

5

ואם מישהו מרגיש שלא שמענו על מספיק תפקידי מטה חדשים ברמת C-Level, אל דאגה! ה (CAOs (Chief Analytics Officers בדרך. ותפקידם לוודא שאנליטיקה "תעלה מדרגה" ברמת השימוש שלה בקבלת ההחלטות בארגון. יש כאלה שיגידו שזה לא תפקיד נוסף אלא התקדמות בתפקידו של ה CDO (ה Data Officer הארגוני) או פונקציה שקיימת במקום אחר בארגון, אבל מה שיותר חשוב הוא שמדובר על סוג של "אנליסט/ית בכיר/ה" שמקבל כסא בחדר הדיונים של ההנהלה, היא/הוא מעורים במטרות ובאתגרים העסקיים ויודעים למנף את היכולות האנליטיות בארגון באופן אקטיבי ולפעול לכך שקבלת החלטות יומיומיות יישענו על תובנות אנליטיות, ולא על תחושות בטן, במיוחד ברמת ההנהלה הבכירה.

6

7

שיטה נוספת להידוק הלולאה בין Data – Insights – Action היא שימוש במתודולוגיית DataOps ששואבת השראה רבה מתחום ה DevOps. עצם העניין כאן הוא יצירת תצורת עבודה המבטיחה שיתופיות בין אנשי ה Data לאנשי ה Analytics ואנשי התהליכים, במקום שכל אחד מהם יפעל בנפרד.

8

 הרבה שיטות לאותה המטרה, בדרך להפוך להיות Data Driven Business.

 לסיכום:

תחום ה-AI כיום מראה תוצאות מיטביות בשילוב עם אנשים/ Data Scientists / אנליסטים. אין לנו עדיין "אלגוריתמים אוטומטיים". הכלים כיום מסייעים לנו בהבנת הדאטה, ב"ראייה" של דפוסים ובמציאת קורלציות בדאטה.

החסמים העיקריים: הערך העסקי וה Use Cases עוד לא ברורים; מחסור משמעותי באנשים ובכישורים מתאימים בארגון; פלטפורמת דאטה לא מספיק "מוכנה" (אי אפשר להסתמך על הנתונים לקבלת החלטות "בשטח", אין מספיק Governance" איכות נתונים נמוכה מדי, או תשתית נתונים מיושנת מדי).

יחד עם זאת, ברור שהפוטנציאל הוא עצום ושכדאי להתחיל לבחון וללמוד את הנושא, ללמד את האנליסטים בארגון ולהכשיר אותם לסביבות טכנולוגיות חדשות לחלוטין, לעתים ניאלץ גם לגייס כ"א חיצוני שמגיע מתחום ה Data Science, לנהל את תשתית הדאטה ככזו שאמורה לתמוך בתפעול היומיומי של הארגון ובקבלת החלטות קריטיות בזמן אמיתי / קרוב לכך.

התעלמות מתחום זה – יש בה סיכון של ממש, שכן האיומים החדשים על תעשיות הפכו להיות לא המתחרים הישירים שלהם אלא המתחרים הפוטנציאליים – אלה שיצליחו לאתר אלגוריתמים יותר חכמים ויעילים מהמערך הקיים בארגון כיום. מספיק לדמיין מה היה קורה אילו לאחרת מ"ענקיות הדאטה" היה מתחשק מחר בבוקר להיכנס כמתחרה בוורטיקל בו הארגון פועל, וזה תרחיש לחלוטין לא דמיוני.

אסור לשכוח שאת כל זה נושא ניהול הנתונים ו Data Governance חייב לעטוף. זהו תנאי מהותי להצלחה, בלעדיו לא ניתן יהיה לייצר תשתית אמינה וניתנת לניהול שנוכל להסתמך עליה בהחלטות התפעוליות של הארגון.

אז האם Data is the new Oil? לא בטוח, אנחנו יותר מתחברים להגדרה של David McCandless – Data is the new Soil (אדמה). באדמה צריך לשחק, להתלכלך, להתייחס לנושא לעתים כאל מגרש משחקים, להצטייד באנשים ובכלים שיכולים למצוא שם דברים בעלי ערך ולשתול את הזרעים למה שעתיד להשפיע מהותית על פעילות הארגון.

 

מודעות פרסומת
האבולוציה של אנליטיקה בארגון

כלכלת האלגוריתמים – חלק ב':

בפוסט הקודם, העוסק בכלכלת האלגוריתמים, סקרנו את מצב שוק הביג דאטה ואנליטיקה בעולם ובישראל, עמדנו על הפער בין השוק המקומי לשוק הגלובלי, ותיארנו את המגמות וההתפתחויות הטכנולוגיות בתחום וביניהן גם נושא הבינה המלאכותית, Machine learning ו-Deep Learning. אך מהי המשמעות הפרקטית של ההתקדמויות הטכנולוגיות המשמעותיות האלה? כיצד הן ישפיעו הלכה למעשה על השימוש באנליטיקה בארגונים כיום ובעתיד הקרוב?

נראה שבטווח הביניים, 2-3 שנים קדימה, השימוש העיקרי בטכנולוגיות הבינה המלאכותית יהיו בעזרה למשתמש האנושי – ל Data Scientist שכיום "מבזבז" מעל מחצית זמנו על הכנת הדאטה לתחקור (Data engineering) וכעת יתפנה לעסוק יותר באלגוריתמים עצמם; וכמו כן, וכאן כנראה החדשות ה"מרעישות", לאנליסטים בארגון (גרטנר מכנים אותם Citizen Data Scientists), אלה אנליסטים שעוסקים בדאטה ובתחקור אשר יש להם מעט הבנה סטטיסטית (לא צריכים להיות Data Scientists "על פי הספר") ואלה כבר חדשות של ממש, כי זה אומר שיותר אנשים בארגון יוכלו לעסוק באנליטיקה – חסם אשר עד כה היה משמעותי מאוד עבור ארגונים.

אנו גם צופים שאותה מגמת Self service ו Data discovery שפגשה את תחום ה- Business Intelligence והנגישה אותו עבור יותר משתמשים בארגון, כעת תפגוש גם את תחום האנליטיקה ותיצור קטגוריה חדשה אליה מנהלי נתונים ואנליטיקה ייאלצו להידרש – Insights discovery (נקודת המפגש בין אנליטיקה, machine learning וויזואליזציה).

יש שיסתכלו על התקדמויות טכנולוגיות אלה כ"איום" והשתלטות על תפקידים אנושיים, אנחנו מעדיפים לראות בכך הזדמנות להעצמת האנליסטים בארגון.

שכבות הדאטה וניהול הנתונים

גם בתחום הנתונים ישנן מספר מגמות אשר מאפשרות את אותה "פתיחות של מידע" המהווה את הבסיס לאלגוריתמים החדשניים. מדובר על מגמות של פתיחות בהקשר של הכלים שנמצאים בשימוש והן בשימוש עצמו.

מגמה ראשונה הנה החזרה לבמה של כלים אשר מבצעים מניפולציה על מקורות של מידע – data virtualization tools. כלים אלו מאפשרים לאגד מידע ממקורות שונים, כגון טבלאות ממסדי נתונים, קבצים סדרתיים וכד', תוך אפשרות "ללוש את הנתונים" כאילו היו פלסטלינה. לדוגמה ניתן לקחת מספר שדות מטבלה אחת, לאחד אותן עם סיכומים של נתונים מתוך קובץ סדרתי תוך ביצוע מניפולציות נוספות כאשר התוצאה מוגשת בתור טבלה וירטואלית לכלי ה- BI והאנליטיקה. כל זאת באופן מיידי ונגיש (ללא תכנון מראש כפי שהיה מקובל בעידן ה- data warehouse). ככל שהארגונים ישכילו להשתמש באופן דינאמי בנתונים תוך ניצול אלגוריתמים מתקדמים- הדרישה לכלים מתחום ה- data virtualization (או כפי שנקראו קודם – data federation) תעלה.

מגמה נוספת המסמנת פתיחות הנה מעבר הדרגתי ל- polyglot data   או  polyglot persistenceשמשמעו שימוש בטכנולוגיות רבות של מסדי נתונים באותה סביבה אפליקטיבית. מונח זה הוזכר לראשונה על ידי הארכיטקט הידוע Martin Fowler . הסיבה לתופעה זו הנה שימוש גובר ב- microservices שבהם מערכות אשר פעם היו מפותחות כמקשה אחת, מפותחות כעת בחלקים (כל חלק נקרא microservice). פיצול זה מאפשר גם להשתמש בטכנולוגיה מיטבית של מסד נתונים לכל חלק במערכת. לדוגמה, במערכת מסוימת נראה שנתוני הלקוחות נמצאים ב- mssql, נתוני הספקים ב- oracle והיסטוריית הפעולות נמצאת ב- mongo. הדבר גורם לכך שהאנשים המקצועיים שאחראים על הטיפול בנתונים צריכים להכיר הרבה יותר טכנולוגיות.

לכן, מסדי נתונים וכלים תומכים שנמצאים בענן הופכים ליותר ויותר רלוונטים. ככל שהארגונים ישכילו להשתמש בענן הציבורי והפנימי יותר, כך גם יגבר השימוש בטכנולוגיות נתונים שנמצאות בענן ובמקביל יגבר גם הצורך לסנכרון נתונים ותהליכים בין המערכות שמותקנות ב- data center של הארגון לבין המערכות המופעלות בעננים השונים.

טכנולוגיות ה- no sql dbms גורמות גם לשינוי יחסים בין אנשי הנתונים (ה- dba) לבין המפתחים. אם בעבר המפתחים היו נדרשים לשירותי ה- dba בכל שינוי שרצו לעשות ברמת הנתונים, הרי שכעת עם השימוש ב- no sql dbms (הנתונים נרשמים בתור סכמות xml), שינוי בסכמה לא מחייב מעורבות ישירה של ה –dba.  במקביל הידע של ה- dba צריך להיות רחב יותר ועליו להכיר טוב יותר מאשר בעבר טכנולוגיות פיתוח מתקדמות.

גם מבחינה עסקית ישנה בתחום רוח של פתיחות. כניסה של טכנולוגיות חדשות בתחום ה- no sql , שימוש מוגבר בטכנולוגיות מבוססות קוד פתוח בתחום המסורתי של מסדי נתונים רלציונים והן אופציה חדשה של קבלת תחזוקה למסדי נתונים מסחריים על ידי גורמי צד שלישי כגון rimini street ו- spinnaker support. אנחנו רואים מגמה של פתיחות בשכבות הנתונים אשר תסייע לארגונים למצות את המידע באופן רחב יותר ולהוות פלטפורמה מתקדמת יותר לאלגוריתמים עסקיים חדשניים.

לסיכום, כיום ההתפתחויות הטכנולוגיות בתחום הביג דאטה ואנליטיקה מקדימות בהרבה את יכולת ובשלות הארגונים לעכל אותן. ארגונים אשר יצליחו ליצור תרבות המאפשרת התנסויות עם שיטות חדשות, תרבות המשאירה מקום לטעויות תוך יצירת תהליכים תומכים לביצוע נסיונות רבים במקביל על מנת לתפוס את אותו ניסיון שכן יצליח, ארגונים אשר יצליחו לגדל את ה"דור הבא" של האנליסטים וה Data scientists בארגון, אותם ארגונים יוכלו ליהנות מאותן התפתחויות טכנולוגיות מרחיקות לכת שמאפשרות כיום, באופן לעתים מעט מרתיע, לעשות כמעט כל דבר, ולקבל החלטות פשוט הרבה יותר חכמות וטובות. מי הם אותם אלה אשר יקחו את ההחלטה בסופו של דבר? אנשים? רובוטים? שילוב? כנראה שכל התשובות נכונות.

ניתן לצפות במצגת המלאה של עינת שמעוני ופיני כהן, עליה מבוסס הפוסט כאן.

 

 

כלכלת האלגוריתמים – חלק ב':

כלכלת האלגוריתמים – חלק א':

מדהים להסתכל לאחור ולראות כיצד במשך מעט השנים האחרונות, כ"כ הרבה תעשיות התהפכו על פיהן והוגדרו מחדש, מכוניות אוטונומיות יגדירו מחדש את האופן בו אנו מסתכלים על תחבורה, חברות מדיה כמו נטפליקס כבר הגדירו מחדש את חויית האנטרטיינמנט וצריכת המדיה שלנו; פרסום פרוגרמטי שינה לחלוטין את שיווי המשקל בין מפרסמים, סוכנויות, גופי מדיה, פבלישרים; וחברות כמו Instacart מגדירות מחדש את חויית הקנייה שלנו.

בלב כל מהפכה כזו נמצאים אלגוריתמים, הטכנולוגיה והאוטומציה לשכעצמם אינם מספיקים. זה לא מספיק רק למכן את תהליך הפרסום, הרעיון הוא להפוך אותו ליותר חכם ומדויק. מכוניות אוטונומיות צריכות לדעת "לקבל החלטות" גם במצבים שאינם דיכוטומיים. זה לא רק אוטומציה, זה "סמרטיפיקציה".

נדמה שכל החפצים מסביבנו הופכים להיות יותר ויותר חכמים, נעל חכמה ששורכת את עצמה, כוס טרמית חכמה שיודעת לספר לנו כמה סוכר יש במשקה שאנחנו שותים בהתאמה לרמות הסוכר המומלצות לנו; שירותים חכמים (כאן לא נפרט); סטטוסקופ חכם שכבר לא מסתמך על הניסיון של הרופא ומשדר לסמארטפון שלנו נתונים; והפייבוריט שלי – מוצץ המספק להורה דשבורד עם מדדים שונים על התינוק (איך לא היה לי כזה?!)

אומרים שהדאטה יהיו הנכס העיקרי של ארגונים בשנים הבאות. אז נכון שחברות שמצליחות להשיג כמה שיותר דאטה נמצאות בעמדת יתרון, אבל השימוש בדאטה לצורך קבלת החלטות יותר טובות, האלגוריתמים שעל פיהם נפעל ביום-יום, הם בעצם היתרון האמיתי של חברות בשוק התחרותי: כלכלת האלגוריתמים.

ביג דאטה ואנליטיקס

ארגונים רבים מבינים כיום שביג דאטה היא לא המטרה, היא האמצעי, אפשר לדמות ביג דאטה לכביש הסלול, ואת האלגוריתם או המודל האנליטי לרכב בו נשתמש כדי להגיע ליעדינו. אבל האם חברות יודעות בכלל להגדיר לאן הן מעוניינות ליסוע? יותר מדי זמן התרכזנו בבנייה וסלילת הכביש, ועדיין רוב החברות עמן אנו משוחחים לא יודעות להגדיר את האתגר העסקי שהאלגוריתמים אמורים לפתור.

אבל איך יכול להיות שטכנולוגיה שנמצאת כאן כבר כ-8 שנים, ארגוני אנטרפרייז מתעסקים בה כבר כ-3 שנים, ועדיין לא נוצר סביבה אקוסיסטם של פתרונות? התחום הנו עדיין מוטה-שירותים ומצריך בניית stack טכנולוגי משמעותי תוך השקעה לא קטנה, מה שמציב חסם כניסה לארגונים רבים.

עם זאת, מעניין לראות מהו מצב אימוץ טכנולוגיות ביג דאטה בקרב ארגונים בעולם, ולהשוות תמונת מצב זו אל מול המצב בישראל. מחקר של NVP הנערך בקרב חברות Fortune1000 במהלך 2016, גילה כי לראשונה תחום הביג דאטה בעולם נכנס ל- Mainstream. 63% מהארגונים כבר מריצים פרויקטי ביג דאטה בפרודקשן (פרויקטים, לא פיילוטים ונסיונות); 70% מעידים כי ביג דאטה נחשב לתחום בעל חשיבות קריטית לארגון; ומעל 50% מהארגונים מעסיקים CDO (Chief Data Officer).

הערכות STKI לגבי השוק בישראל ב-2016 מגלות פער של בין 3 ל 4 שנים (!) אל מול השוק הבינלאומי. רק כ-30% מהארגונים כיום מבצעים פיילוטים וניסויים בתחום הביג דאטה; רק 7% מארגוני Enterprise בישראל מריצים פרויקטי ביג דאטה בפרודקשן.

big data image

מהם השלבים הבאים באבולוציה של עולם האנליטיקה?

תחום ה-BI ואנליטיקה הוא תחום ותיק שפועל כבר עשרות שנים. אם בעבר התמקדנו בעיקר בשאלות "מה קרה" (באמצעות כלי BI וריפורטינג), בשנים האחרונות השקענו די הרבה מאמץ ביכולת לתחקר "מדוע זה קרה" (באמצעות כלי אנליזה, ויזואליזציה מתקדמת, data discovery, מעבר לניתוח שירות עצמי ועוד); כיום אנחנו במעבר לשימוש באנליטיקה ובחיזוי כדי לשאול "מה צפוי / עשוי לקרות"; אך מהם השלבים הבאים? לאן הסיפור הזה הולך? להערכתנו, ,השלב הבא שבעצם כבר נמצא כאן מבחינה טכנולוגית אך עדיין לא מבחינת היישום בארגונים הוא השימוש ביכולות Artificial Intelligence (ובעיקר Machine Learning) בעיקר על מנת להבין על מה הדאטה שלנו מדבר ו"מהם השאלות שבכלל ניתן לשאול"; מכאן הדרך לשלב הבא יחסית מהירה – הטכנולוגיה לא תיעצר רק בסיוע למשתמשים האנושיים בשאילת השאלות הנכונות, אלא היא תעשה דברים הרבה יותר מרחיקי לכת מכך: הטכנולוגיה תעבד את המידע עבורנו, תדע לייצר תובנות גם מדאטה מורכב ומאוד בלתי מובנה, והחשוב מכל – תדע לקחת החלטות במקומנו, ממש כמונו ואף יותר טוב מאיתנו.

המחשוב הקוגניטיבי הוא עוד ענף נוסף בתחום-על הסבוך הנקרא Artificial intelligence, כאשר ממד נוסף שטכנולוגיה זו מציעה הנו היכולת לתחקר איתנו, האנשים, ברמת "שיחה" (קחו לדוגמה את Amy, המזכירה הוירטואלית שמתאמת עבורנו פגישות דרך התכתבות אוטומטית באימייל עם האדם המבקש לתאם עמנו פגישה, או את הצ'אט האוטומטי על נציג/ת השירות כדוגמת Digital Genius).

וזה הזמן המתאים לשאול את עצמנו את השאלה הבאה: האם ייתכן שכלים אנליטיים הגיעו לרמת החשיבה האנושית? התשובה היא שעוד לא, אך סביר שנגיע די קרוב לשם בשנים הקרובות. יש כמה התפתחויות שמצביעות על מגמה זו. התחום המדובר ביותר שזוכה למירב תשומת לב ואף התלהבות של קהילת המפתחים והמהנדסים הוא Deep Learning (ענף של תחום ה Machine Learning ששואב השראה מהדרך בה המוח האנושי פועל).

התא הבסיסי ביותר במערכת העצבים שלנו הוא הנוירון, תא המעביר "מסרים" בין המוח וחלקים אחרים בגוף. רשתות נוירוניות מנסות לחקות את האופן שבו נוירונים מקבלים ומעבירים מידע, על ידי הוספת שכבה נוספת של מידע. Deep Learning neural networks לוקח זאת צעד אחד קדימה, ומוסיף עוד יותר שכבות נסתרות המאפשרות עיבוד מידע מתקדם (כמו לדוגמה במצבים בהם אין מצב דיכוטומי של כן או לא, אלא מצב בו לקיחת החלטה הנה מורכבת יותר) אחת הדוגמאות הבולטות לשימושי deep learning הנה לצורך עיבוד תמונה. על מנת להבין מהו האובייקט הנמצא מולנו אנו צריכים שכבות מידע שונות שיעזרו לנו לקבל את ההחלטה מהו אותו אובייקט?

מדוע Deep Learning כ"כ מעסיק כעת את קהילת המפתחים? בסוף 2015 גוגל שחררה את פרויקט ה-DL שלה לקהילת הקוד הפתוח, תחת השם Tensor Flow. בצעד זה, גוגל מחפשת את חכמת ההמונים בפיתוח יכולות ה – Deep Learning שלה, תוך שהיא משחררת לקהילה ספריות ואלגוריתמים שעד כה היו בבחינת סוד מסחרי – כמו יכולות התרגום או זיהוי תמונה שלה. זה יצר מספיק רעש בשוק כדי לדחוף את השוק קדימה לכותרות.

מהי המשמעות של התפתחויות אלה על הפרקטיקה האנליטית של ארגונים כיום? כיצד תיראה "אנליטיקה" בארגון בשנים הקרובות? נתייחס לשאלות אלה בפוסט הבא: כלכלת האלגוריתמים – חלק ב'.

ניתן לצפות במצגת המלאה של עינת שמעוני ופיני כהן, עליה מבוסס הפוסט כאן.

כלכלת האלגוריתמים – חלק א':

מה זה בכלל Digital Analytics (ובמה זה שונה מ Web analytics)?

הדגש ההולך וגובר על נושא חוויית לקוח דיגיטלית מביא עמו פרויקטים "דיגיטליים" רבים – ערוצים חדשים הולכים וצצים (לרוב בנוסף, ולא במקום, ערוצים קיימים) ומתחיל להיווצר צורך בכלים אנליטיים שיספקו תמונת לקוח דיגיטלית לאורך ערוצים אלה.

מדובר במאמץ די גדול, שכן באופן היסטורי, ,כל ערוץ נבנה בבחינת "אי" מנותק מהערוצים האחרים. לרוב נבחרים פתרונות best of breed, ללא אפשרות מעבר מערוץ לערוץ, וללא אפשרות ל"תמונת לקוח" רוחבית (בדומה ל"תמונת לקוח" המוכרת לנו מעולם ה CRM). ארגונים (שהחלו מערוץ ה- Voice) פשוט מוסיפים עוד ערוץ ועוד ערוץ לפי דרישת הצרכנים או השוק, והאסטרטגיה הנפוצה ביותר כיום בתחום הערוצים היא גישת הטלאי על טלאי. אז בתוך מציאות שכזו, בעלת מיעוט ממשקים בין ערוץ אחד לשני, איך ניתן לקבל תמונת מצב של "חויית לקוח" חוצת ערוצים בזמן אמיתי, או לפחות בזמן הרלוונטי שנדרש לתגובה?

לא מדובר בצורך חדש שצץ פתאום משום מקום. זוהי אבולוציה של צרכים שנבנית לאט-לאט, עם ההתקדמות האבולוציונית בפני עצמה שלנו בעולם ה Engagement הדיגיטלי. ככל שאנו מעמיקים את ה engagement עם הלקוח, כך הצורך לנתח אינטראקציות אלה הולך ועולה. כיום אנו מסוגלים לתת מענה אנליטי לחויית הלקוח במוקד ובערוצי האופליין, אך מעטים הארגונים אשר מסוגלים לעשות זאת בהקשר הערוצים הדיגיטליים. ומעטים עוד יותר הארגונים שמסוגלים לקשר את המידע הדיגיטלי עם המידע האופלייני (שלא לדבר על האינטראקציות הפיזיות – בנקודת המכירה עצמה).

מ Web Analytics ל Digital Analytics

כאשר ארגונים החלו להסתכל על אתרי ה- Web כערוץ משמעותי, הצורך בכלי Web analytics עלה. כיום רוב הארגונים משתמשים בכלי Web analytics כדוגמת Web Trends, גוגל אנליטיקס ועוד. מה השלב הבא? נראה שהאבולוציה של תחום ה Web analytics, שמספק תשובה לשאלה "מה קורה באתר של החברה? מה אנשים עושים?" מובילה לתחום חדש שנקרא Digital Analytics המתמודד עם השאלה "למה זה קורה?" ולעתים אף "מה אני עושה עם זה?" כלומר – לא רק איסוף המידע והצגתו, אלא גם אופטימיזציה שמסייעת לתת מענה בזמן אמיתי לסוגיות שעולות בערוצים הדיגיטליים, באופן שמשפיע ומשפר את חוויית הלקוח.

לאן כל זה הולך?

ניתוח חוויית הלקוח לא תיעצר רק באינטראקציות הטלפוניות, ווביות, ומוביליות. הערוצים "הבאים" כבר ממש כאן: טכנולוגיות ה-IoT מתחילות לייצר ערוצים חדשים, המועצמים על ידי מידע סנסוריאלי שהולך לזרום אלינו מכיוון הלקוחות בצורה מדהימה, ככל שתחום זה יילך ויתפוס תאוצה ב Engagement אל מול הלקוחות. ברגע שלקוחות מבצעים מולנו אינטראקציות באמצעות "דברים" הם מספקים לארגון מידע רב-ערך המספק את ההקשר: מה הלקוח עושה כרגע? מה סביר להניח שירצה מאיתנו? ליד מה הוא נמצא? איך בדר"כ הוא מתנהג? מתי הרגע הנכון לספק או להציע לו מוצר או שירות או מידע מסוים? ההקשר הוא הדבר החשוב ביותר באינטראקציות שכן הוא מספק את הפרסונליזציה שכולם כ"כ שואפים להגיע אליה. אם כך, ברור שזה רק עניין של זמן עד שנעשה שימוש גם במידע זה לצורך השלמת ה"תמונה" של חויית הלקוח בין אם היא בדיגיטל/ בערוצי האופליין/ ערוצים פיזיים או אחרים.

 

אין ספק שעם התפתחות ערוצי ה Engagement העתידיים האלה, אנו צפויים לראות יותר ויותר ""קטגוריות חדשות" של כלי אנליטיקה שיודעים לספק לנו תמונה רוחבית של חוויית הלקוח, והדבר נעשה רק יותר ויותר מאתגר.

מה זה בכלל Digital Analytics (ובמה זה שונה מ Web analytics)?

STKI Market Pulse – עדכונים מהירים על קצה המזלג:

מיהו ה- CTO החדש?

כידוע אנחנו נמצאים בתקופה בה מתרחשים שינויים טכנולוגיים כבירים ומואצים. נשאלת השאלה האם תפקיד ה- CTO משתנה ביחד עם שינויים טכנולוגיים אלו. זה היה הנושא העיקרי במפגש שולחן עגול שהתקיים לאחרונה.  בדיון עלתה הסוגיה לפיה ה-"CTO התפעולי-טכנולוגי" קרוב לעולם ה-IT ובמובנים רבים מסתכל "פנימה". CTO זה קרוב לעיתים לתחום התשתיות ובמקרים מסוימים גם ייקח אחריות תפעולית על משימות טכנולוגיות שקשורות לתחום התשתיות (לדוגמה, אחריות על הוצאת מכרזים, אחריות על פרויקטים תשתיתיים). לעיתים ה- CTO הוא גם מנהל התפעול והתשתיות בעצמו (במקרה זה חלק מהקונפליקטים והבעיות שמתוארות בהמשך לא קיימות). לעיתים חלק לא מבוטל מתפקיד ה- CTO ה"תפעולי" בארגון הוא להוות "גשר" בין תחום הפיתוח לבין תחום התשתיות\תפעול.

בדיון גם עלתה הסוגיה של חיבור ה- CTO לתחומים המקצועיים. הרי ה- CTO אינו מכיר את הטכנולוגיות הספציפיות בתחומים השונים (פיתוח, אחסון, תקשורת, ERP וכד') באותה רמה של הגורמים המקצועיים בתחומים אלו, ונשאלת השאלה כיצד מחברים את ה- CTO לגורמים המקצועיים. בדיון גם עלתה דעה (על ידי CTO שמשמש גם כמנהל תפעול\תשתיות) שלא ניתן להיות CTO ללא אחריות תפעולית – אחרת מאבדים את ה"מגע המקצועי". אחד הרעיונות שעלה בדיון בהקשר לסוגיה זו הוא ביצוע רוטציה בין הגורמים המקצועיים לבין צוות ה- CTO, כךשומרים על ה"עדכניות המקצועית" של צוות ה- CTO. במידה ומצליחים ליישם זאת ארגונית מדובר על רעיון טוב. מעבר לכך, מסתבר שהיחסים בין הגורמים המקצועיים לבין ה- CTO  אינם פשוטים. מצד אחד, הגורמים המקצועיים הם "שחיים את התחום" ומכירים לפרטי פרטים את התחום הספציפי שלהם הרבה יותר מה-CTO. עם זאת, לצוותים המקצועיים חסרה לעיתים פרספקטיבה רחבת טווח שנמצאת בידי ה-CTO, חשיפה למגמות טכנולוגיות ומידע על פרויקטים עתידיים בגוף מערכות המידע. כמו כן, הגורמים המקצועיים אינם "חפים מאינטרסים" ובהחלטות טכנולוגיות נוטים לבחור בבחירות שמוכרות להם יותר. ה-CTO אמור להיות הגורם האובייקטיבי-מקצועי בארגון.

שורה תחתונה: חלוקת האחריות בין הגורמים המקצועיים לבין ה-CTO  אינה טריוויאלית ומחייבת עבודה בשיתוף פעולה כאשר לעיתים ה-CIO  נאלץ לבצע החלטה כאשר ישנם נושאי מחלוקת. אך ברוב המקרים העבודה מתבצעת בשיתוף פעולה, כאשר כל גורם תורם כמיטב יכולתו.

שימוש במוצרי BI במודל קוד פתוח

לאחרונה קיבלנו כמה פניות מארגונים ששוקלים שימוש בכלי BI קוד פתוח. המניע לשאלות אלה בתחום ה-BI ספציפית הנו ברובו הגדול של המקרים בו אנו נתקלים – חיסכון בעלויות רישוי. חלק מהארגונים מעוניינים להרחיב משמעותית את השימוש בשירותי BI אל מעבר למשתמשי ה-BI הקלאסיים (כיום % משתמשי ה-BI עומד על כ-30% מכלל העובדים), לשותפים חיצוניים או ללקוחות. במקרה זה, ה Business case של שימוש במוצרי קוד פתוח הנו ברור. כאשר בוחנים כלי BI קוד פתוח, מעניין לראות כי בתחום זה ספציפית, כל שלושת המוצרים הבולטים נרכשו על ידי חברות טכנולוגיות:

  • Pentaho – אשר נרכשה לפני מספר חודשים על ידי HDS במטרה המוצהרת להיכנס לתחום האנליטיקה ב-IoT analytics
  • JasperReport – נקנו על ידי Tibco
  • BIRT – חלק מ Eclipse, נדחף על ידי Actuate- כיום חלק מ-Open Text.

רוב השימוש בכלים אלה עד כה הנו לחברות טכנולוגיות המעוניינות לפתח רכיבי BI ולשלבם בתוך האפליקציות שלהם אותן הן מוכרות לשוק (Embedded BI). אולם מודלי הרישוי – המאפשרים גישה למסה של משתמשים, הרבה יותר מותאמים ל Customer facing BI מאשר אלה של רוב ספקי ה-BI המסורתיים. כתוצאה מכך, אנו צופים שארגונים אשר יהיו מעוניינים להציע שירותי BI אל מחוץ לגבולות הארגון יבחנו ברצינות מודל קוד פתוח. ייתכן והדבר יוביל בסופו של דבר לרצון לממש כלי קוד פתוח גם לשימוש של BI פנים ארגוני לעובדים (אך כיום ובעתיד הנראה לעין אנו לא רואים מגמה כזו בארגוני Enterprise).

החסם העיקרי אשר עוצר מגמת הכנסת כלי BI קוד פתוח לארגון כיום היא חוסר תמיכה מספקת של Ecosystem נותני השירותים בישראל. כמות הידע הטכני והמקצועי, מספר המיישמים המכירים ותומכים בכלים אלה, עם ניסיון ממשי בפועל, עדיין אינה מספקת, וארגונים נדרשים "להסתדר בעצמם" עם מעט עזרה חיצונית. בדומה לאימוץ פתרונות קוד פתוח באופן כללי, אנו צופים שמערך התמיכה יילך וישתפר ככל שתורגש הדרישה בשוק.

שורה תחתונה: פתרונות במודל קוד פתוח בתחום ה-BI מהוות אלטרנטיבה טובה אשר ראוי לבחון ב use case של שימוש חיצוני כלפי שותפים/ ספקים / לקוחות הארגון, אך יש להיערך לנושא התמיכה ולוודא כי יש גישה לידע הנדרש, בין אם בהתארגנות פנימית או בהסתמכות על כ"א חיצוני.

ניהול סיכוני טכנולוגיות המידע

ניהול סיכונים טכנולוגיים הינו תחום חדש יחסית, אשר מקבל הכרה בחשיבותו, כחלק מההכרה שמקבל תחום ניהול הסיכונים התפעוליים הכלל ארגוני (ERM). המטרה בניהול סיכוני IT, הינה הבטחת קיומם התקין של תהליכים ופעילויות של גוף ה- IT, התומכים ומקדמים את המטרות העסקיות של הארגון. על כן, תהליך ניהול סיכוני IT צריך להתמקד בסיכונים המשפיעים על היעדים העסקיים של הארגון.

לאחרונה אנו עדים לחשיבה מחודשת ובנייה של פונקציית סיכוני IT, מדובר בהטמעת מתודולוגיה לניהול סיכונים וניהול סיכונים באופן אחיד, במטרה ליצור שפה משותפת בין גורמים טכנולוגיים לגורמים עסקיים.

ארגוני IT, אשר מצליחים להביא ערך עסקי אמיתי מניהול בשל של סיכונים טכנולוגיים, יוצרים מעורבות עמוקה עם גורמים עסקיים עוד בשלב הייזום ודרישה לפרויקטי ה- IT. מצב זה מאפשר למנהל סיכוני ה- IT להתייחס גם להיבטים ושיקולים עסקיים, ולא רק לסיכונים התפעוליים הנובעים מעצם קיום הפרויקט.

שורה תחתונה: חשוב להבין כי ההכרה בערך ובתועלת של מנהל סיכוני IT גוברת, ככל שמנהל סיכוני IT מצליח לתקשר את הזיקה בין סיכוני טכנולוגיות המידע, לבין פגיעה פוטנציאלית ביעדים העסקיים של הארגון.

STKI Market Pulse – עדכונים מהירים על קצה המזלג: