כיצד קהילת ה Data Science מסייעת במלחמה נגד קורונה?

יובל נוח הררי אמר לאחרונה שהאנושות מעולם לא הייתה מוכנה יותר מאשר היום להתמודד עם המגפה. הקידמה הטכנולוגית שמאפיינת את העידן בו אנו חיים לכאורה צריכה להיות לצידנו ולעזור לנו לצלוח את המשבר. יחד עם זאת, המגפה תפסה אותנו לגמרי לא מוכנים.

מי שעוסק בעולם הנתונים לא יכל שלא להיות מתוסכל מהאופן בו החלטות נלקחות בעולם. נדמה שאין מספיק הישענות על נתונים, או מודלים טובים של ניבוי. עם כל ההתקדמות הטכנולוגית האדירה בעולם ה big data ו AI, לא היינו צריכים להיות עכשיו במקום אחר? איך זה קרה? ומדוע אותו AI נודע לשמצה כמי שעתיד למחוק את האנושות – לא מגיע עכשיו ומציל את העולם?

המשבר הזה חשף את גודל הפער העצום בין ההבטחה הגדולה של עולם הדאטה למציאות, שבה אנחנו לוקחים החלטות ולא מסתמכים על נתונים.

אחת הדוגמאות הבולטות לכך היא היערכות והצטיידות. איך קורה שמישהו ביחידת הרכש לא יודעת להצטייד בציוד מספק? למה אנחנו לא רואים יותר החלטות מבוססות דאטה במשבר הנוכחי?

אפשר בהחלט להתנחם ביכולות הדאטה המצוינות שיש למשרד הבריאות שלנו, שמהווה פורץ דרך בכל עולם הנתונים, ביג דאטה ו Data Science כבר לפני שנים. אך מה קורה בעולם? התחושה היא שמדינות אינן נשענות מספיק על נתונים בקבלת ההחלטות, החל מהבנת תמונת המצב דרך נקיטת פעולות ובוודאי מניעה. וזה בהחלט מתסכל, כי אנחנו נמצאים בנקודת זמן בה היכולות הטכנולוגיות והדיגיטליות קיימות וזמינות ויש כל כך הרבה שניתן לעשות כדי לסייע באמצעות נתונים.

ואכן – בחודש האחרון אנחנו רואים התגייסות אדירה של קהיליית מדעני הנתונים לסייע באתגר.  ה קהיליות מאורגנות כמו לדוגמה Data Natives (כ 80K מדעני נתונים), Kaggle (גוגל) ודומיהן כבר "על זה" ומריצות האקטונים – דוגמת #HACKCORONA, תחרויות ואתגרים שקשורים למלחמה בנגיף. הרווארד פתחה קורס ייעודי ל Data Science for Covid19 ועוד שלל דוגמאות.

אז למה בכל זאת קיים הפער הכואב הזה, בין הפוטנציאל והיכולת של עולם הנתונים והמימוש שלו בפועל? באופן מעניין, ניתן להקביל את הסיבות לפער הזה למצב הקיים בארגונים כיום.

הסיבה העיקרית היא היעדר דאטה. או יותר נכון – היעדר Data governance!

הבעיה היא שהנגיף נכנס לחיינו רק לפני מספר חודשים ספורים ופשוט אין מספיק "היסטוריה". בנוסף, הנתונים שנאספים אינם "סטנדרטיים" משום שמדובר במגפה עולמית וכל אחד מגדיר נתונים טיפה אחרת (לדוגמה, נושא הבדיקות – כל מדינה נוקטת במדיניות שונה. חלק בודקים הרבה, חלק % קטן מהאוכלוסיה, חלק בכלל לא). במצב זה קשה לחזות אחוזי חולי/ תמותה, וכתוצאה מכך גם להיערך ולהצטייד בהתאם. במצב זה, בו אין מספיק נתונים אמינים ואין "אמת אחת" קשה מאוד לבסס מודלים, כפי שאנחנו מכירים היטב מהעולם הארגוני.

החדשות המעודדות הן שיש התקדמות אדירה ומואצת בימים אלה ממש. קהילת ה data science כבר "על זה" ומנסה להתארגן על מקורות מידע טובים. יש כמה יוזמות מעניינות בתחום זה שמנסות להנגיש data sets לכל העולם, כמו לדוגמה Cord 19 – דאטה סט פתוח של Allen Institute המכיל 30K מאמרים ומחקרים בנושא; יוזמות רבות נוספות כמו זו של הבית הלבן בשיתוף עם Kaggle ומיקרוסופט ועוד רבות נוספות שואפות לכנס את קהילת ה AI ומדע הנתונים ולנסות לקדם אתגרים באמצעות אלגוריתמים.

מהם סוגי הפתרונות להם ניתן לצפות משימוש ב Data Science בהקשר של הקורונה?

  • בראש ובראשונה, הבנת הבעיה (במלים אחרות, איסוף נתונים והנגשתם למי שצריך):  היכן ההתפרצויות? מה היקף ההתפרצות? מה אחוז החולי?  טכנולוגיות רלוונטיות: ויזואליזציה, דשבורדים, GIS. המחסור העיקרי כאן הוא בתמונת מצב ברורה סוג של Data governance עם "אמת אחת".
  • סיוע באבחון: אחת הדוגמאות המעניינות כאן היא סיוע באבחון בשלבים מוקדמים, כדוגמת Project Baseline של חברת האחות של גוגל Verily שמציע (כרגע לתושבי קליפורניה) ערכת בדיקה אונליין ל Covid19.

 לקריאה נוספת: https://www.projectbaseline.com/study/covid-19/

בעולם העיבוד החזותי וספציפית דימות, נעשתה עוד לפני התפרצות הנגיף התקדמות אדירה בפענוח תצלומי רנטגן. כיום data scientists מתחילים להיות מסוגלים לזהות את הנגיף בהתבסס על תמונות דימות בלבד. גם כאן ישנה בעיית זמינות נתונים לאימון המודלים, שמתחילה להשתפר.

בתמונה – מודל המזהה בדיוק של 90-92% באמצעות Keras, TensorFlow ו Deep Learning. המודל למד בעצמו, ללא נתונים גיאוגרפיים או דמוגרפיים. המודל מתבסס על data set שפורסם על ידי רופא במונטריאול ב GitHub (לינק ל data set כאן) והושוו מול Data Set קיים של Kaggle לצילומי חזה.  עליבאבא פיתחה מודל שמזהה את הנגיף בסריקות CT באחוז דיוק של 96%. המודל אומן על 5000 דוגמאות והמערכת אומצה על ידי 100 בתי חולים בסין וזהו לא המודל היחיד. מודל נוסף פותח באמצעות Deep Learning (תוך שימוש ב 45K סריקות CT) על ידי אוניב' בווהאן – גם שם אחוז הדיוק עמד על 95%.

יש גם התקדמות בשימוש בטכנולוגיות זיהוי פנים לטובת אבחון כפי שאנו רואים בסין וברוסיה, שמסוגלות לבדוק חום גוף וכן להתגבר על בעיות כמו חבישת מסכה לטובת זיהוי פנים.

בהקשר למניעה/מציאת חיסון –  בהחלט יש ציפייה ש AI יאיץ את התהליך (שתאורטית לוקח 12 שנה). DeepMind של גוגל הכריזו על שימוש ב Deep Learning על מנת לזרז את הבנת מבנה הנגיף ותהליך קיפול החלבונים באמצעות פרויקט AlphaFold שלה – מערכת שיודעת לנבא מבנה חלבון.

בתוך שלל הדוגמאות לסטארטאפים בעולם AI בתחום מגפות/ COVID19, בולט הסטארטאפ Blue Dot שכבר היום יכול לצפות מראש היכן המגפה תתפשט (כך אכן עשה בסין לאחר ההתפרצות בווהאן כך שניתן היה להזהיר את הערים הבאות בתור. כמו כן, האלגוריתם מבוסס ML למד את דפוסי התנועה של אנשים ויכל לנבא לאיזה ארצות ייסעו).

דרך נוספת ויצירתית במיוחד לסייע קשורה לכוח מחשובי. לניתוח נתונים בסדר גודל כזה נדרש כוח מחשובי עצום. NVIDIA פנתה לקהיליית הגיימרים בבקשה לתרום את כוחות העיבוד המחשובי שלהם:

לסיכום

רוב קהילת הנתונים מאמינה של AI יש פוטנציאל רב בסיוע במלחמה נגד קורונה, אבל זה ייקח זמן – המודלים זקוקים לתשתית נתונים טובה, ולזמן אימון. לכן לא תולים בכך הרבה תקוות בעתיד הקרוב.

המפתח ליכולות אנליטיות נעוץ בשכבת נתונים טובה. ככל שמאגרי הנתונים ישתפרו ותהיה "יד מכוונת" (התאגדות של ממשלות לצורך העניין) נוכל לראות יותר פריצות דרך בניסיון לצלוח את המשבר הזה.

כך או כך, אין ספק של AI יש הזדמנות פז להפוך את המוניטין הרע שקיבל מזה שרוצה להשמיד את האנושות לזה שיעזור להציל אותה.

בברכת בריאות טובה לכולם וחזרה במהרה לשגרה "משעממת".

צוות המחקר של STKI.

כיצד קהילת ה Data Science מסייעת במלחמה נגד קורונה?

מהי ארכיטקטורת הדאטה של תחום השיווק וחויית לקוח?

זהו הפוסט השלישי בסדרת פוסטים בנושא Data driven businesses. בפוסט הראשון סקרנו את הסיבה בגינה אנחנו מדברים כ"כ הרבה על דאטה וההקשר הרחב של Data driven Businesses. בפוסט השני עשינו זום אין לצורך, לתועלות, לאף לצעדים הדרושים כדי להפוך ל Data Driven Marketer.

כעת אנחנו רוצים להגיע לשאלת ה"איך": איך צריכה להיראות ארכיטקטורת הדאטה שלנו. מדוע הארכיטקטורה הקיימת (ברוב המקרים) אינה מספקת את הצורך ב" Customer experience view" לשנים הקרובות, וננסה להבין מהן אבני הבניין של ארכיטקטורה זו, מהו הדבק שיאחד בין הדברים ועוד שאלות יותר פרקטיות.

דוגמא אחת נהדרת לארכיטקטורה כזו, בעלת 5 שלבים:

Data architecture

מקור: ChiefMarTech

ארכיטקטורה זו מכילה 5 רכיבים שהם מהווים גם 5 שלבים:

  1. Backbone: זוהי תשתית הנתונים. השלב בו אנו אוספים ואוגרים נתונים (בין אם פנימיים או חיצוניים, מובנים או לא מובנים). יש כאן מספר שינויים עליהם נדבר בהמשך, החשוב שבהם הוא שמקורות המידע ילכו ויתרבו כל הזמן, חלקם לא ישבו פיזית אצלנו, ואנחנו צריכים לפעול כדי לנהל אותם וירטואלית בצורה מרכזית ולחבר אותם חיבורים לוגיים (לאו דווקא פיזיים) לישות אחת כדי להבין יותר טוב את חויית הלקוח הרציפה.
  2. Discover: השלב האנליטי בו אנחנו מייצרים מודלים אנליטיים, עושים סגמנטציות, עושים פרדיקטיב, דיגיטל אנליטיקס וכד'.
  3. Delivery: החלק של קבלת החלטה או "איך הנתונים משפיעים על קבלת ההחלטות בפועל" – ה SHARE של הנתונים בארגון, חשיפה שלהם, שילוב התובנות בתהליכי קבלת החלטות, תכנון מסעות הלקוח… "ניהול התובנות" וגם governance.
  4. Activation: החלק התפעולי – הוצאה לפועל של תהליכים המושפעים מהתובנות – לדוגמה קמפיינים שמערכות מרקטינג אוטומיישן מפעילות, אותם ניסיונות של AB testing שמועלים לאוויר….
  5. Automation: כשעושים "SCALE" לאותם טסטים, עוברים לשלב הסיסטמתי.

בין שלבים אלה קיימים "גשרים" וחיבורים, שגם הם תהליכים בפני עצמם.

מהם השינויים בשכבת ה Backbone, שכבת איסוף וארגון הנתונים?

DW

הדבר הראשון הוא ההבנה שה- Data Warehouse הוא לא מענה מספק עבור הבנת חויית הלקוח, הוא מספק רק חלק מהתמונה, וזה נובע מכמה סיבות:

  • בתחום השיווק / חויית לקוח מתבקשת גישה "חקרנית" (Exploratory) לנתונים. ה- DW הקלאסי נבנה סביב סכימות דאטה מתוכננות היטב שבאות לספק מענה לחקר מבוסס שאילתות 'ידועות מראש'. כאן לא מדובר על שאילתות, אפשר להקביל את זה יותר ל"נבירה" בדאטה כדי למצוא דברים מעניינים, תובנות שעולות, קורלציות, קשרים שלא חשבנו שקיימים.
  • עבור צרכי השיווק (חלק מהם) לעתים המידע הגולמי עדיף ממידע מסוכם ואגרגטיבי.
  • אג'יליות ו Time to market הם קריטיים. DW הוא עדיין תהליך Batchy, והוספת נתונים נוספים אליו לוקחים זמן בשל הצורך לחבר לסכימות המידע.

אפשר להגיד שהDisruptor הראשון ל-DW עבור צרכי השיווק היה מידע דיגיטלי, וזה רק יילך ויתגבר. כיום אנחנו צריכים לכלול גם מידע התנהגותי, מידע המגיע מנכסים דיגיטליים שלנו וחיצוניים, מידע על קהלים חיצוניים, מידע טבלאי ומובנה, לצד מידע לא מובנה ועוד ועוד.

מהם DMPs וכיצד הם מהווים חלק מארכיטקטורת הדאטה שלנו?

ה- DMPs (Data Management Platforms) הם סוג של DW שנבנה ספציפית לטובת ניהול נתוני "אנשים" (לא מזוהים / IPs) – בעיקר cookies, לבנות ממידע זה קהלים, לייצר סגמנטים, וגם להפיץ מסרים לאותם הקהלים תוך הפצתם לגופי מדיה ו DSPs שונים.

DMP

מקור: Yashi.

אותם DMPs מכילים 3 סוגי מידע:

1st Party Data: מידע בבעלותו של הארגון: CRM, DW, מערכות ליבה, נקודות המכירה, וגם מידע מה Owned media, מהאתר, אימיילים, מובייל…. לחברות בתחום B2C הכי קל להתחיל לשפוך מידע זה לתוך DMPs ולהתחיל ליצור קהלים מתוך מידע זה (ה"לבנה" הראשונה). עוד לפני הוספת מידע חיצוני על קהלים נוספים, ניתן לטרגט לקוחות עם מאפיינים שונים בהתבסס על הדאטה שכבר יש לנו.

2nd Party Data: מידע שאנו מקבלים מחברה אחרת, שמהווה שותפת-מידע שלנו (לדוגמה, אם אני חברת אשראי אני יכולה לחבור לרשת שיווק ולעשות שימוש, בהסכמת הלקוחות שלה, במידע הנצבר על לקוחותיה ממועדון הנאמנות שלה). יש כאן בעצם שימוש שלי ב 1st party data של חברה אחרת. כאן ניתן לטרגט ולהגיע לקהלים נוספים בעלי מאפיינים דומים ללקוחות הטובים שלי, ולבצע שילובים מעניין בין 1st party ל 2nd party כמו לדוגמה, להציג את המסר השיווקי ללקוחות שעונים על קריטריונים מסוימים, ובתנאי שהם לא לקוחות כבר של השירות הזה).

3rd Party Data: מידע על קהלים במרחב הדיגיטלי שנצבר על ידי חברות צד שלישי. לדוגמה, לקוחות המחפשים מידע על טיסות ליעד מסוים; אנשים חובבי ספורט המבלים באתרים מסוג זה; אנשים בגילאים מסוימים שאוהבים בישול וגרים באזור ספציפי ועוד ועוד אינסוף חיבורים של קריטריונים שונים שמגדירים קהלים חדשים שיכולים לעניין את המותג שלי.

מימד נוסף בארכיטקטורת הדאטה שלנו הודות להתפתחות תחום ה-IoT והמידע הסנסוריאלי:

Context is King!

טשטוש הגבולות בין העולמות הפיזיים והדיגיטליים כבר מתרחש כיום, הרבה בזכות Internet of things. אינטרנט כבר חיבר בין האנשים, כעת הוא מחבר גם בין מכשירים ודברים שונים, והרבה מהם! יש לזה משמעות עצומה על חיי היום-יום שלנו, על התארגנות ארגונית ועל מאקרו כלכלה בכלל. מגזין "כלכלה דיגיטלית" (אשר הקדיש מהדורה שלמה רק לנושא אינטרנט של הדברים) ציין כי בתקופה הקרובה יצאו לשוק בין 3 ל-5 מיליארד "צרכנים חדשים", אותם נצטרך לשדרג, לתמוך,  להתקין ולתת להם שירות, אשר לא היו קיימים קודם לכן.

Internet of things הנה החוליה החסרה במהפכה הדיגיטאלית, המאפשרת להפוך את חוויית הלקוח לחכמה ורלוונטית. חוויה שהלקוחות כבר מצפים לקבל מנותני השירותים שלהם. מי שלא הבין עדיין כי התחרות האמיתית של בנק, למשל, איננה בנק אחר, אלא חווית השירות של אמזון, Uber ו Airbnb.

לחוויה דיגיטאלית כזאת, מתמשכת וכזאת המטשטשת גבולות במעברים בין מכשירים, מקומות ורגעים שונים במסע הלקוח, קוראים Ambient computing. מדובר בשירות מדויק המבוסס על הפעילות הפרסונלית וההעדפות האישיות של האדם. Internet of things יחבר בין נתונים ו"דברים" ויספק ניתוח מידע ותובנות בזמן אמת, וזה ירגיש מאוד מאוד טבעי ומתבקש.

תחום ה Internet of Things משנה את המציאות שלנו ללא הכר. IoT רלוונטי לכל תעשיה, מגזר ותהליך אישי ועסקי. ניטור וניתוח מתמיד של מידע המתאפשר היום בזכות מיליוני סנסורים, ענן, אנליטיקה דיגיטאלית, מזהה דפוסים שלא היינו ערים להם קודם לכן, מקצר לנו את תהליך קבלת ההחלטות, מציע ומבצע את הדבר המומלץ ביותר עבורי. ועל אף לא מעט אתגרים לא פתורים של התחום, הצדקתו הכלכלית ברורה וקלה להוכחה. אנו צופים בתקופה הקרובה כניסה רחבה של ארגונים לפרויקטי IoT, הן פרויקטים הפונים לקהל הרחב, אשר משדרגים את חווית הלקוח וחדשנות, והן פרויקטים ארגוניים Internet of Corporate Things-, אשר מייעלים תפעול, חוסכים העלויות ומציעים תהליכי עבודה שלא התאפשרו קודן לכן.

לעתים, אותו מידע סנסוריאלי, הוא בדיוק ה"חוליה החסרה" בהבנה של הצורך/ההקשר או במלים אחרות ה “Magic moment” בו נוכל לספק ערך ממשי עבור הלקוחות שלנו.

 

 

 

מהי ארכיטקטורת הדאטה של תחום השיווק וחויית לקוח?

למה אנחנו מדברים על DATA?

למה כל העולם כל כך עסוק בכל מה שקשור לדאטה? עידן המידע כבר כאן לא מעט זמן, אבל משום מה, אנחנו מוקפים ב-"Big Data", "Data Driven", "Chief Data Officer", "Data Analytics", ובעוד מגוון רחב של מונחים ממשפחת הדאטה. לדעתי, כל אלה אינם תוצאות או מטרות – אלה רק סימפטומים של שינוי משמעותי בדרך בה אנחנו עושים עסקים, ושל הזדמנות ענקית העומדת לפנינו.

לא ברור אם השינוי הוליד את ההזדמנות, או שמא הייתה זו ההזדמנות ששלחה אותנו לחשב מסלול מחדש. בכל מקרה, זה לא באמת חשוב מה בא קודם, אבל זה מאוד חשוב שנבין את מהות השינוי על מנת שנוכל להפיק מההזדמנות את המרב.

דרך טובה להבין שינויים משמעותיים היא להביט לאחור ולנסות לציר את השינוי על ציר הזמן. אז בואו נסתכל על הדרכים שבהן דאטה שירתה עסקים, בעשורים האחרונים.

אני חושב שדאטה עוזרת לנו בעסקים  מזה זמן רב. לפני העידן הממוחשב, עסקים השתמשו בניהול ספרים מסורתי. אני בטוח שהמידע, שנערך בקפדנות בספרים אלה, שירת את העסקים וסייע להם לדעת משהו על הלקוחות ועל הטרנזקציות שלהם. התנהלות זו קיבלה מימד נוסף כשמחשבים וגיליונות אלקטרוניים התווספו לארסנל הכלים. לאלה התווספו בסיסי הנתונים הגדולים שהובילו ליכולות בתחום ה-BI ולייעול מבוסס נתונים בקנה מידה ארגוני. התפתחויות אלה הובילו גם להצטרפותן של מערכות ה-ERP, שבפעם הראשונה אפשרו לנהל את הארגון באופן ממוחשב ולייעל את הפעילות במונחים תפעוליים. התרגום של היכולות האלה לעולמות השירות, בא לידי ביטוי בעידן ה-CRM. זהו שלב משמעותי בהתפתחות – שלב שבו העולם העסקי הבין שסוף סוף ניתן להפיק יותר, מהטרנזקציה עם לקוחות, על ידי שימוש במידע קיים, מתוך הארגון. איפשהו בתחילת שנות ה-2000, באה גוגל ולימדה אותנו שאנחנו יכולים להפיק יותר תועלת מהפרסום שלנו אם אנחנו משתמשים במידע קונטקסטואלי. הגילוי הזה מיהר להתפשט לתחום עצום מימדים, שקיבל את השם Adtech. אלפי חברות, ברחבי העולם, שפיתחו מוצרים ויכולות, שבבסיס כולם דבר אחד: למנף את הדאטה, הרבה דאטה, ביג דאטה, להתאמה יותר מדויקת של מסרים שיווקיים לאנשים. משם הדרך קצרה להרחבה לעולם השיווקי הרחב – כך התעוררה תעשיית ה-Martech. זהו אוסף של טכנלוגיות ופתרונות שעניינם לאפשר לנו לנהל את מערך הכלים השיווקיים שלנו בצורה יעילה, תוך התייחסות לקשרי הגומלין שבין הערוצים השונים.

yoav1

ההיסטוריה, המובאת לעיל, מביאה אותנו לנקודת הזמן הנוכחית, המסומנת באילוסטרציה באותיות CCE, בגלל שמה שמייחד אותה, לדעתי, זה נושא ה- Continuous Customer Experience  (חוויית הלקוח הרציפה). אסור לטעות ולחשוב שמדובר, שוב, בניהול ממשקי משתמש ו/או בעיצוב נקודות מגע עם לקוחות. מדובר פה בעניין הרבה יותר גדול. תנו לי להסביר:

מקומו של מותג בחייו של אדם כלשהו, הוא קטן מאוד, יחסית לכל הדברים האחראים שיש לאדם בחיים. עם זאת, אם נתמקד בחלק הקטן הזה, נגלה שהוא עצמו מורכב מהרבה מאוד מרכיבים. כל נקודת מפגש של אדם עם משהו שקשור, בדרך כזו או אחרת, למותג, היא מרכיב אחד בסך הקשר של אדם עם מותג. שלט חוצות של המותג, שיחה עם נציג שירות, שיחת סלון עם חברים בנושא הקשור למותג, עמידה בתור בסניף… כל אלה הם המרכיבים של הקשר הזה. אם נקרא לקשר של אדם עם מותג – "חוויית הלקוח", אז ניתן גם להתייחס לכל נקודות המגע, כמקטעים ברצף, שנקרא "חוויית הלקוח הרציפה".

מערכת היחסים שבין אדם למותג מתקיימת רק כי שני הצדדים למערכת היחסים הזאת, מעוניינים להפיק איזושהי תועלת. כאן, אני רוצה להפנות אתכם לחוק ה-Win Win, בניסוח שלי:

"שתי ישויות, יפיקו את הערך המקסימאלי מטרנזקציה ביניהן, רק אם הערך הנתפס של הטרנזקציה, עבור כל אחד מהצדדים, יהיה מקסימאלי."

זה אומר, שבמערכת היחסים שבין אדם למותג, הדרך היחידה למקסם את פונקציית המטרה של הארגון, היא על ידי מיקסום פונקציית המטרה של האדם. כלומר, אם הארגון מגדיר את המטרות שלו במונחים של הכנסות ואילו האדם מגדיר את התועלת שלו במונחים של מחיר, דימוי עצמי, שירות וכו', אז הדרך היחידה למקסם את ההכנסות היא על ידי מיקסום הערך הנתפס של האדם, בכל הפרמטרים, כל הזמן.

זה לא משהו שלא ידענו קודם. ברור שכשאדם בא לקנות חולצה, אנחנו דואגים שהיא תהיה אופנתית, שיהיה מבחר, שיהיו מידות, שהמוכרנים יהיו מצוינים, שהמחיר יהיה אטרקטיווי. אבל זוהי חוויה אחת. מה עם הרצף של החוויות? מה אם באותו ערב יש כתבה בחדשות על כך שהחברה שמוכרת את החולצה, מתייחסת לא יפה לעובדים שלה? מה אם הקונה פתאום רואה את אותה חולצה, במקום אחר, במחיר יותר טוב? אז אולי הוא לא ישוב לקנות חולצות של המותג הזה. ואז ברור, שהמותג לא הפיק את הערך המקסימאלי ממערכת היחסים שלו עם האדם הזה.

אז בעצם, מדובר במיקסום הערך מסך החוויות שמרכיבות את הרצף, על מנת להפיק ממערכת היחסים, את הערך הגדול ביותר, למשך כל חיי הלקוח. אז עכשיו ניתן לנסח חוק, שנובע מהחוק הכללי:

ארגון, יצליח להפיק את ה-Lifetime Value המקסימאלי, ממערכת יחסים עם צרכן, רק אם הוא יצליח לגרום לערך הנתפס שמפיק הצרכן, מכל המקטע בחוויית הלקוח שלו, להיות מקסימאלי.

זאת הסיבה, שדאטה נעשה נושא כל כך מעניין. ההתפתחות האדירה שחלה בתחום טכנולוגיות השיווק בזמן האחרון, מביאה אותנו למקום שבו אנחנו יכולים להתחיל לנהל ברצינות את חוויית הלקוח הרציפה. על ידי איסוף מידע, אחסון מידע, שימוש במגוון מקורות מידע, פנימיים וחיצוניים, וזיהוי הלקוח ופעילותו, על פני הרצף, ניתן להתחבר לחוויה שלו, ברזולוציה הרבה יותר גבוהה ממה שהיה ניתן בעבר.

המטרה שצריכה להיות לנו מול העיניים, היא לדאוג לכך, שעבור כל אחד מלקוחותינו (ולקוחותינו הפוטנציאליים), חוויית הלקוח כולה (וכל מקטע שלה בנפרד), תהיה:

• מצוינת • קונסיסטנטית • מדויקת • מתוזמנת • יוצאת דופן • בקו המותג • פשוטה • מותאמת • גמישה • כיפית

איך עושים את זה? שאלה גדולה עם תשובה ארוכה. אני חושב שמה שצריך לשאול, זה "איך מתחילים?"

אז ההצעה שלי היא להתחיל מההתחלה. וההתחלה במקרה הזה היא באסטרטגיית הדאטה של הארגון. להלן הצעה לאבנים הראשונות בשביל חוויית הלקוח הרציפה:

yoav2

  1. מפו את חיי הלקוחות שלכם (בלי קשר לעולמכם).
  2. מצאו מה חלקכם בחיים שלהם.
  3. הגדירו את חוויית הלקוח הרציפה כרצף של נקודות מידע.
  4. תרגמו כל נקודת מידע כזאת לפרמטרים.
  5. צרו תהליך איסוף לכל פרמטר.
  6. בחרו כלי, או מערך כלים, שמאפשרים התנהלות עם כל סוגי המידע.
  7. צרו תהליכים שבעזרתם כולם ישתמשו באותו בסיס נתונים.

בהצלחה 🙂

*הפוסט נכתב ע"י יואב פרידור

 

 

 

למה אנחנו מדברים על DATA?

כלכלת האלגוריתמים – חלק ב':

בפוסט הקודם, העוסק בכלכלת האלגוריתמים, סקרנו את מצב שוק הביג דאטה ואנליטיקה בעולם ובישראל, עמדנו על הפער בין השוק המקומי לשוק הגלובלי, ותיארנו את המגמות וההתפתחויות הטכנולוגיות בתחום וביניהן גם נושא הבינה המלאכותית, Machine learning ו-Deep Learning. אך מהי המשמעות הפרקטית של ההתקדמויות הטכנולוגיות המשמעותיות האלה? כיצד הן ישפיעו הלכה למעשה על השימוש באנליטיקה בארגונים כיום ובעתיד הקרוב?

נראה שבטווח הביניים, 2-3 שנים קדימה, השימוש העיקרי בטכנולוגיות הבינה המלאכותית יהיו בעזרה למשתמש האנושי – ל Data Scientist שכיום "מבזבז" מעל מחצית זמנו על הכנת הדאטה לתחקור (Data engineering) וכעת יתפנה לעסוק יותר באלגוריתמים עצמם; וכמו כן, וכאן כנראה החדשות ה"מרעישות", לאנליסטים בארגון (גרטנר מכנים אותם Citizen Data Scientists), אלה אנליסטים שעוסקים בדאטה ובתחקור אשר יש להם מעט הבנה סטטיסטית (לא צריכים להיות Data Scientists "על פי הספר") ואלה כבר חדשות של ממש, כי זה אומר שיותר אנשים בארגון יוכלו לעסוק באנליטיקה – חסם אשר עד כה היה משמעותי מאוד עבור ארגונים.

אנו גם צופים שאותה מגמת Self service ו Data discovery שפגשה את תחום ה- Business Intelligence והנגישה אותו עבור יותר משתמשים בארגון, כעת תפגוש גם את תחום האנליטיקה ותיצור קטגוריה חדשה אליה מנהלי נתונים ואנליטיקה ייאלצו להידרש – Insights discovery (נקודת המפגש בין אנליטיקה, machine learning וויזואליזציה).

יש שיסתכלו על התקדמויות טכנולוגיות אלה כ"איום" והשתלטות על תפקידים אנושיים, אנחנו מעדיפים לראות בכך הזדמנות להעצמת האנליסטים בארגון.

שכבות הדאטה וניהול הנתונים

גם בתחום הנתונים ישנן מספר מגמות אשר מאפשרות את אותה "פתיחות של מידע" המהווה את הבסיס לאלגוריתמים החדשניים. מדובר על מגמות של פתיחות בהקשר של הכלים שנמצאים בשימוש והן בשימוש עצמו.

מגמה ראשונה הנה החזרה לבמה של כלים אשר מבצעים מניפולציה על מקורות של מידע – data virtualization tools. כלים אלו מאפשרים לאגד מידע ממקורות שונים, כגון טבלאות ממסדי נתונים, קבצים סדרתיים וכד', תוך אפשרות "ללוש את הנתונים" כאילו היו פלסטלינה. לדוגמה ניתן לקחת מספר שדות מטבלה אחת, לאחד אותן עם סיכומים של נתונים מתוך קובץ סדרתי תוך ביצוע מניפולציות נוספות כאשר התוצאה מוגשת בתור טבלה וירטואלית לכלי ה- BI והאנליטיקה. כל זאת באופן מיידי ונגיש (ללא תכנון מראש כפי שהיה מקובל בעידן ה- data warehouse). ככל שהארגונים ישכילו להשתמש באופן דינאמי בנתונים תוך ניצול אלגוריתמים מתקדמים- הדרישה לכלים מתחום ה- data virtualization (או כפי שנקראו קודם – data federation) תעלה.

מגמה נוספת המסמנת פתיחות הנה מעבר הדרגתי ל- polyglot data   או  polyglot persistenceשמשמעו שימוש בטכנולוגיות רבות של מסדי נתונים באותה סביבה אפליקטיבית. מונח זה הוזכר לראשונה על ידי הארכיטקט הידוע Martin Fowler . הסיבה לתופעה זו הנה שימוש גובר ב- microservices שבהם מערכות אשר פעם היו מפותחות כמקשה אחת, מפותחות כעת בחלקים (כל חלק נקרא microservice). פיצול זה מאפשר גם להשתמש בטכנולוגיה מיטבית של מסד נתונים לכל חלק במערכת. לדוגמה, במערכת מסוימת נראה שנתוני הלקוחות נמצאים ב- mssql, נתוני הספקים ב- oracle והיסטוריית הפעולות נמצאת ב- mongo. הדבר גורם לכך שהאנשים המקצועיים שאחראים על הטיפול בנתונים צריכים להכיר הרבה יותר טכנולוגיות.

לכן, מסדי נתונים וכלים תומכים שנמצאים בענן הופכים ליותר ויותר רלוונטים. ככל שהארגונים ישכילו להשתמש בענן הציבורי והפנימי יותר, כך גם יגבר השימוש בטכנולוגיות נתונים שנמצאות בענן ובמקביל יגבר גם הצורך לסנכרון נתונים ותהליכים בין המערכות שמותקנות ב- data center של הארגון לבין המערכות המופעלות בעננים השונים.

טכנולוגיות ה- no sql dbms גורמות גם לשינוי יחסים בין אנשי הנתונים (ה- dba) לבין המפתחים. אם בעבר המפתחים היו נדרשים לשירותי ה- dba בכל שינוי שרצו לעשות ברמת הנתונים, הרי שכעת עם השימוש ב- no sql dbms (הנתונים נרשמים בתור סכמות xml), שינוי בסכמה לא מחייב מעורבות ישירה של ה –dba.  במקביל הידע של ה- dba צריך להיות רחב יותר ועליו להכיר טוב יותר מאשר בעבר טכנולוגיות פיתוח מתקדמות.

גם מבחינה עסקית ישנה בתחום רוח של פתיחות. כניסה של טכנולוגיות חדשות בתחום ה- no sql , שימוש מוגבר בטכנולוגיות מבוססות קוד פתוח בתחום המסורתי של מסדי נתונים רלציונים והן אופציה חדשה של קבלת תחזוקה למסדי נתונים מסחריים על ידי גורמי צד שלישי כגון rimini street ו- spinnaker support. אנחנו רואים מגמה של פתיחות בשכבות הנתונים אשר תסייע לארגונים למצות את המידע באופן רחב יותר ולהוות פלטפורמה מתקדמת יותר לאלגוריתמים עסקיים חדשניים.

לסיכום, כיום ההתפתחויות הטכנולוגיות בתחום הביג דאטה ואנליטיקה מקדימות בהרבה את יכולת ובשלות הארגונים לעכל אותן. ארגונים אשר יצליחו ליצור תרבות המאפשרת התנסויות עם שיטות חדשות, תרבות המשאירה מקום לטעויות תוך יצירת תהליכים תומכים לביצוע נסיונות רבים במקביל על מנת לתפוס את אותו ניסיון שכן יצליח, ארגונים אשר יצליחו לגדל את ה"דור הבא" של האנליסטים וה Data scientists בארגון, אותם ארגונים יוכלו ליהנות מאותן התפתחויות טכנולוגיות מרחיקות לכת שמאפשרות כיום, באופן לעתים מעט מרתיע, לעשות כמעט כל דבר, ולקבל החלטות פשוט הרבה יותר חכמות וטובות. מי הם אותם אלה אשר יקחו את ההחלטה בסופו של דבר? אנשים? רובוטים? שילוב? כנראה שכל התשובות נכונות.

ניתן לצפות במצגת המלאה של עינת שמעוני ופיני כהן, עליה מבוסס הפוסט כאן.

 

 

כלכלת האלגוריתמים – חלק ב':

כלכלת האלגוריתמים – חלק א':

מדהים להסתכל לאחור ולראות כיצד במשך מעט השנים האחרונות, כ"כ הרבה תעשיות התהפכו על פיהן והוגדרו מחדש, מכוניות אוטונומיות יגדירו מחדש את האופן בו אנו מסתכלים על תחבורה, חברות מדיה כמו נטפליקס כבר הגדירו מחדש את חויית האנטרטיינמנט וצריכת המדיה שלנו; פרסום פרוגרמטי שינה לחלוטין את שיווי המשקל בין מפרסמים, סוכנויות, גופי מדיה, פבלישרים; וחברות כמו Instacart מגדירות מחדש את חויית הקנייה שלנו.

בלב כל מהפכה כזו נמצאים אלגוריתמים, הטכנולוגיה והאוטומציה לשכעצמם אינם מספיקים. זה לא מספיק רק למכן את תהליך הפרסום, הרעיון הוא להפוך אותו ליותר חכם ומדויק. מכוניות אוטונומיות צריכות לדעת "לקבל החלטות" גם במצבים שאינם דיכוטומיים. זה לא רק אוטומציה, זה "סמרטיפיקציה".

נדמה שכל החפצים מסביבנו הופכים להיות יותר ויותר חכמים, נעל חכמה ששורכת את עצמה, כוס טרמית חכמה שיודעת לספר לנו כמה סוכר יש במשקה שאנחנו שותים בהתאמה לרמות הסוכר המומלצות לנו; שירותים חכמים (כאן לא נפרט); סטטוסקופ חכם שכבר לא מסתמך על הניסיון של הרופא ומשדר לסמארטפון שלנו נתונים; והפייבוריט שלי – מוצץ המספק להורה דשבורד עם מדדים שונים על התינוק (איך לא היה לי כזה?!)

אומרים שהדאטה יהיו הנכס העיקרי של ארגונים בשנים הבאות. אז נכון שחברות שמצליחות להשיג כמה שיותר דאטה נמצאות בעמדת יתרון, אבל השימוש בדאטה לצורך קבלת החלטות יותר טובות, האלגוריתמים שעל פיהם נפעל ביום-יום, הם בעצם היתרון האמיתי של חברות בשוק התחרותי: כלכלת האלגוריתמים.

ביג דאטה ואנליטיקס

ארגונים רבים מבינים כיום שביג דאטה היא לא המטרה, היא האמצעי, אפשר לדמות ביג דאטה לכביש הסלול, ואת האלגוריתם או המודל האנליטי לרכב בו נשתמש כדי להגיע ליעדינו. אבל האם חברות יודעות בכלל להגדיר לאן הן מעוניינות ליסוע? יותר מדי זמן התרכזנו בבנייה וסלילת הכביש, ועדיין רוב החברות עמן אנו משוחחים לא יודעות להגדיר את האתגר העסקי שהאלגוריתמים אמורים לפתור.

אבל איך יכול להיות שטכנולוגיה שנמצאת כאן כבר כ-8 שנים, ארגוני אנטרפרייז מתעסקים בה כבר כ-3 שנים, ועדיין לא נוצר סביבה אקוסיסטם של פתרונות? התחום הנו עדיין מוטה-שירותים ומצריך בניית stack טכנולוגי משמעותי תוך השקעה לא קטנה, מה שמציב חסם כניסה לארגונים רבים.

עם זאת, מעניין לראות מהו מצב אימוץ טכנולוגיות ביג דאטה בקרב ארגונים בעולם, ולהשוות תמונת מצב זו אל מול המצב בישראל. מחקר של NVP הנערך בקרב חברות Fortune1000 במהלך 2016, גילה כי לראשונה תחום הביג דאטה בעולם נכנס ל- Mainstream. 63% מהארגונים כבר מריצים פרויקטי ביג דאטה בפרודקשן (פרויקטים, לא פיילוטים ונסיונות); 70% מעידים כי ביג דאטה נחשב לתחום בעל חשיבות קריטית לארגון; ומעל 50% מהארגונים מעסיקים CDO (Chief Data Officer).

הערכות STKI לגבי השוק בישראל ב-2016 מגלות פער של בין 3 ל 4 שנים (!) אל מול השוק הבינלאומי. רק כ-30% מהארגונים כיום מבצעים פיילוטים וניסויים בתחום הביג דאטה; רק 7% מארגוני Enterprise בישראל מריצים פרויקטי ביג דאטה בפרודקשן.

big data image

מהם השלבים הבאים באבולוציה של עולם האנליטיקה?

תחום ה-BI ואנליטיקה הוא תחום ותיק שפועל כבר עשרות שנים. אם בעבר התמקדנו בעיקר בשאלות "מה קרה" (באמצעות כלי BI וריפורטינג), בשנים האחרונות השקענו די הרבה מאמץ ביכולת לתחקר "מדוע זה קרה" (באמצעות כלי אנליזה, ויזואליזציה מתקדמת, data discovery, מעבר לניתוח שירות עצמי ועוד); כיום אנחנו במעבר לשימוש באנליטיקה ובחיזוי כדי לשאול "מה צפוי / עשוי לקרות"; אך מהם השלבים הבאים? לאן הסיפור הזה הולך? להערכתנו, ,השלב הבא שבעצם כבר נמצא כאן מבחינה טכנולוגית אך עדיין לא מבחינת היישום בארגונים הוא השימוש ביכולות Artificial Intelligence (ובעיקר Machine Learning) בעיקר על מנת להבין על מה הדאטה שלנו מדבר ו"מהם השאלות שבכלל ניתן לשאול"; מכאן הדרך לשלב הבא יחסית מהירה – הטכנולוגיה לא תיעצר רק בסיוע למשתמשים האנושיים בשאילת השאלות הנכונות, אלא היא תעשה דברים הרבה יותר מרחיקי לכת מכך: הטכנולוגיה תעבד את המידע עבורנו, תדע לייצר תובנות גם מדאטה מורכב ומאוד בלתי מובנה, והחשוב מכל – תדע לקחת החלטות במקומנו, ממש כמונו ואף יותר טוב מאיתנו.

המחשוב הקוגניטיבי הוא עוד ענף נוסף בתחום-על הסבוך הנקרא Artificial intelligence, כאשר ממד נוסף שטכנולוגיה זו מציעה הנו היכולת לתחקר איתנו, האנשים, ברמת "שיחה" (קחו לדוגמה את Amy, המזכירה הוירטואלית שמתאמת עבורנו פגישות דרך התכתבות אוטומטית באימייל עם האדם המבקש לתאם עמנו פגישה, או את הצ'אט האוטומטי על נציג/ת השירות כדוגמת Digital Genius).

וזה הזמן המתאים לשאול את עצמנו את השאלה הבאה: האם ייתכן שכלים אנליטיים הגיעו לרמת החשיבה האנושית? התשובה היא שעוד לא, אך סביר שנגיע די קרוב לשם בשנים הקרובות. יש כמה התפתחויות שמצביעות על מגמה זו. התחום המדובר ביותר שזוכה למירב תשומת לב ואף התלהבות של קהילת המפתחים והמהנדסים הוא Deep Learning (ענף של תחום ה Machine Learning ששואב השראה מהדרך בה המוח האנושי פועל).

התא הבסיסי ביותר במערכת העצבים שלנו הוא הנוירון, תא המעביר "מסרים" בין המוח וחלקים אחרים בגוף. רשתות נוירוניות מנסות לחקות את האופן שבו נוירונים מקבלים ומעבירים מידע, על ידי הוספת שכבה נוספת של מידע. Deep Learning neural networks לוקח זאת צעד אחד קדימה, ומוסיף עוד יותר שכבות נסתרות המאפשרות עיבוד מידע מתקדם (כמו לדוגמה במצבים בהם אין מצב דיכוטומי של כן או לא, אלא מצב בו לקיחת החלטה הנה מורכבת יותר) אחת הדוגמאות הבולטות לשימושי deep learning הנה לצורך עיבוד תמונה. על מנת להבין מהו האובייקט הנמצא מולנו אנו צריכים שכבות מידע שונות שיעזרו לנו לקבל את ההחלטה מהו אותו אובייקט?

מדוע Deep Learning כ"כ מעסיק כעת את קהילת המפתחים? בסוף 2015 גוגל שחררה את פרויקט ה-DL שלה לקהילת הקוד הפתוח, תחת השם Tensor Flow. בצעד זה, גוגל מחפשת את חכמת ההמונים בפיתוח יכולות ה – Deep Learning שלה, תוך שהיא משחררת לקהילה ספריות ואלגוריתמים שעד כה היו בבחינת סוד מסחרי – כמו יכולות התרגום או זיהוי תמונה שלה. זה יצר מספיק רעש בשוק כדי לדחוף את השוק קדימה לכותרות.

מהי המשמעות של התפתחויות אלה על הפרקטיקה האנליטית של ארגונים כיום? כיצד תיראה "אנליטיקה" בארגון בשנים הקרובות? נתייחס לשאלות אלה בפוסט הבא: כלכלת האלגוריתמים – חלק ב'.

ניתן לצפות במצגת המלאה של עינת שמעוני ופיני כהן, עליה מבוסס הפוסט כאן.

כלכלת האלגוריתמים – חלק א':

חלק ג' בסדרת פוסטים בנושא טכנולוגיות שיווקיות: מהן העוצמות שטכנולוגיה מביאה כיום לתוך יוזמות השיווק?

 

אחת מהשאלות אשר מנהלי שיווק צריכים לבחון מחדש כל הזמן היא: עד כמה אנחנו יכולים להכיר את הצרכן, כדי להיות מסוגלים לספק לו/ה את המסר הנכון ביותר, בזמן הנכון ביותר: אדם נכון, מסר נכון, זמן נכון. התשובה לשאלה זו תשליך משמעות על נושא הסגמנטציות (אשר משתנה מהותית); צורת המדידה (מ"איים" למערכת יחסים רציפה); ואפילו ההגדרה ל"מה זה סגמנט"? (אני לא אותו ה"אדם" מבחינת ההעדפות שלי כל הזמן, אני יכול להיות 50 סגמנטים שונים במשך 24 שעות)…

תעשיית הפרסום כבר עברה מהפכת אוטומציה וכיום שוק ה Programmatic advertising משנה את התמונה, ולמעשה הפך לברירת המחדל שלהערכתנו תהווה הפלטפורמה לשיווק בכל סוגי המדיה השונים (ולא רק Display ads / באנרים). האם זה טוב או רע? מבחינת אפקטיביות הקמפיינים, זה רק טוב. יכולות הטירגוט של קהל היעד משתפרות מאוד, והפרסום הופך להיות יותר ויותר חכם, ועל הדרך מספק לנו המון תובנות לגבי אנשים, העדפות, אפקטיביות, שימוש במדיה, ועוד הרבה תובנות נוספות שניתן לייצא ממנה, אם רק יודעים איך.

מה טומן העתיד לפלטפורמות פרוגרמטיק? אופטימיזציה, תהליכים יותר חכמים. לא רק אוטומציה של תהליכים (ובדרך ויתור על מתווכים אנושיים) אלא גם שימוש באלגוריתמיקה מתקדמת המועצמת על ידי יכולות של אינטיליגנציה מלאכותית ובתוך כך Machine Learning. לא מדובר כאן רק על אוטומציה של תהליך קיים, אלא על הפיכה של אותו תהליך ליותר שקוף, מדיד וחכם.

התפתחויות נוספות הן בתחום ה Cross-device (מובייל/דסקטופ, וידיאו/תוכן סטטי) והיכולת לזהות שמדובר באותו האדם, יכולות ניהול קהלים יותר טובה (בין אם ממידע פנים ארגוני, מידע משותפים או מספקי צד ג'), אבל ההתקדמות המשמעותית ביותר הנה שפלטפורמות אלה יהפכו להיות ה HUB המרכזי של ארגונים לצריכה ושימוש במדיה. וזה דבר גדול, שיצריך הגדרה מחדש של יחסי הארגון עם סוכנויות פרסום ומדיה ויגדיר מחדש את מאזן הכוחות. הרבה מהכוח יעבור פנימה, לתוך הארגון, שיהיה – אולי לראשונה – הבעלים של הדאטה הפרסומי שלו, ובעל השליטה עם יכולת ניהול מרכזית.

האם Ad blocking משנים תמונת הפרסום?

לאחרונה אנחנו נוכחים לדעת עד כמה אנשים לא אוהבים פרסומות, והם צועקים את זה באופן ברור. האפשרות הטכנולוגית כיום לחסום פרסומות ממחישה זאת: 20% ממשתמשי דסקטופ, 25% ממשתמשי מובייל, ו-40% גידול בשימוש ב ad blockers משנה שעברה. התוצאה: 14% מתקציבי פרסום נחסמו בשנה החולפת – המון כסף שהלך לפח.

וזה לא ממגיע מ"שום מקום". אנשים אכן רוצים שחברות יכירו אותם יותר טוב, ושיספקו להם תכנים מוצרים ושירותים רלוונטיים, אך המצב כיום הפך להיות "מערב פרוע", ללא חוקים, רגולציה וללא שליטה של הצרכן.

אנחנו מאמינים שכל זה יוביל לזהות דיגיטלית, כפי שכבר קיימת כיום לגוגל, פייסבוק וכד', אבל אחת אחידה ומשותפת לכל פלטפורמות הפרסום. לצרכן עצמו תהיה יכולת לשלוט על רמת הפרטיות בו הוא/היא מעוניינים, איזה מידע הוא מאפשר לאסוף לגביו ואיזה לא. (כיום קיימות תכנות פרטיות לכך, כמו Ghostery  שמספקת תכנת user tracking blocking ומאפשרת למשתמש לקבוע בעצמו את רמת הprivacy שלו.

השפעות נוספות של תופעת חוסמי הפרסום הן השקעה גבוהה ב content marketing ובפרסום נייטיב, יותר השקעה בשיווק ב earned media. הדבר יצריך יותר יצירתיות מחברות ומותגים.

כמו כן, במקביל יצמחו ערוצי פרסום נוספים כמו לדוגמה מסייעים אישיים (personal assistants) דוגמת סירי, קורטנה, אלכסה – המסייעים לנו בצורה אינטראקטיבית ועל הדרך יספקו לנו תוכן פרסומי, Search 2.0.

איך אנו מוודאים שהמסר הנכון יגיע ל"אדם הנכון"? בנושא הסגמנטציה יש מפגש של התפתחות ציפיות הצרכנים מחד, והתקדמות טכנולוגית מאידך, שהובילו למצב בו כיום, הסתמכות על סגמנטציה בלבד, כבר אינה מספקת. זה ממש לא מספיק לדעת שמדובר בגבר בסביבות גיל 30 שאוהב בישול מולקולרי, כדאי גם לדעת שלאותו גבר יש זמן חופשי, אירוע כמו יום הולדת ובסופו של דבר להבין האם זה ה"רגע המתאים" להציע לו סדנת בישול מולקולרי. מציאת ה Magic moment או right moment הנו טריקי וחמקמק אבל הוא זה שעושה את כל ההבדל, כמו שאדם סינגולדה, מייסד אאוטבריין, אמר לאחרונה – אני אדם שונה בשעות הבוקר ובשעות הערב, מבחינת ההעדפות והרצונות שלי. אחוזי ההצלחה (על פי מחקר של SAS) עולים בהתאמה – כאשר “Convenient marketing” (שיווק מותאם לקהל המטרה, נשען על סגמנטיות) מקבל כ 20% אחוזי "הצלחה" (לא נתעכב כרגע על מה זו בדיוק הצלחה במחקר זה, מה שמעניין כאן הוא היחסיות), “Appropriate marketing” (שיווק המתחשב בממד הזמן המתאים – right moment marketing) יקבל 40% הצלחה. הבעיה היא שכיום, רוב המודעות הפרסומיות שאנו רואים לא שייכות לא לקטגוריה הראשונה ולא לשנייה, אלא ל “Intrusive marketing” (אין סגמנטציות, אותו המסר לכולם, ללא כל התייחסות לממד הזמן המתאים). אגב, אחוזי ההצלחה כאן – בסביבות 2%.

המרוץ לפלטפורמת השיווק כבר החל

אפשר רק להסתכל לאחור על רצף הרכישות של ספקי טכנולוגיה בשנה האחרונה בתחום ה MarTech ולהבין שהמרוץ לאספקת פלטפורמת שיווק (Marketing hub/marketing cloud) כבר החל, ספקים כמו Adobe, אורקל, יבמ, Salesforce, SAS, כולן מעוניינות להיות אותו Hub והן משקיעות בכך סכומי עתק.

גם חברות ה AdTech מצטרפות למירוץ,וחברות כמו גוגל, פייסבוק, Aol, Yahoo, בונות את פלטפורמות העתיד שלהן, כולן רוצות לספק לנו את אותו Hub שליטה מרכזי.

ואכן, תחום ה MarTech מתחיל לפגוש את תחום ה AdTech ,טכנולוגיות הפרסום והשיווק מתחילות להתאחד באותן פלטפורמות ולהציע לנו יכולות שעד כה לא נראו כלל אפשריות. התוצאה של שוק "מאוחד" זה, בשם המאוד הולם לדעתנו: MadTech!

ה-CMOs? הם גם כן במירוץ לאספקת אותה חויית לקוח אופטימלית, להצטייד בכלים ובשיטות המתאימים, בכ"א מוכן ומיומן לאותו שינוי. בשנים הקרובות עליהם לייצר פלטפורמת שיווק עמידה בפני שינויים תכופים, להתעדכן כל הזמן לגבי טרנדים שיווקיים וטכנולוגיים, לעבוד בשיתוף פעולה מלא עם IT, להיערך למרתון ארוך מצויידים בחשיבה אסטרטגית, תוך ריצה של ספרינטים קצרים והצגת ROI בתצורת נצחונות קטנים כל הזמן.

ניתן לצפות במצגת המלאה כאן.

כותבי המאמר הנם חברי צוות המחקר של STKI for CMOs: עינת שמעוני, גלית פיין ויואב פרידור.

 

 

 

 

חלק ג' בסדרת פוסטים בנושא טכנולוגיות שיווקיות: מהן העוצמות שטכנולוגיה מביאה כיום לתוך יוזמות השיווק?

מה זה אומר להיות "ארגון אקספוננציאלי"?

אנו נמצאים השנה בפתח המהפכה התעשייתית הרביעית, המושפעת בעיקר מהתפתחויות משמעותיות בתחום התובנה המלאכותית (Artificial intelligence), החיבור בין תחום הרובוטיקה, יכולות אוטונומיות, אלגוריתמיקה, ועוד תחומים המצטרפים ומשנים כיום פני תעשיות שלמות. דוגמה ספציפית לשינוי מהותי זה הוא שינוי פני שוק העבודה (על פי מחקר של מכון טאוב, כ-300 מקצועות נמצאים בסיכון גבוה להיעלמות/החלפה על ידי כוח מחשובי, וכ40% משעות העבודה של מקצועות עובדים בישראל נמצאים ב"סיכון גבוה" כזה בשני העשורים הקרובים). חשוב להבין שההתפתחות הנה מהירה, ופוגשת עולם שאינו מוכן להתמודד עם מהפכה זו (לדוגמה, כיום ישנה יכולת טכנולוגית למטוס ללא טייס, אך האם לקוחות בכלל יסכימו לטוס במטוס המוטס לחלוטין על ידי מכונה?). קצב הטכנולוגיה מהיר וגדול מיכולת תעשיות וארגונים לספוג אותה.

יחד עם זאת, חשוב להבין שבין אם אנחנו מוכנים לכך או לא, הכל הופך להיות אקספוננציאלי: טכנולוגיות, ארגונים, ולקוחות, ואנו צריכים להיערך לכך. נדרש מערך IT תלת מימדי שיטפל בצרכים שהם ממוקדי – IT (הלקוח: הארגון והעובדים); ממוקדי פונקציות עסקיות (הלקוח: פונקציות עסקיות כמו שיווק, חויית לקוח ועוד); וממוקדי לקוחות (זהו המוצר הדיגיטלי שלנו, אותו אנו מספקים ללקוח הסופי – הוא הלקוח של גוף הטכנולוגיה). עבור כל אחד מצרכים אלה נדרשות שיטות ניהול שונות, התנהלות שונה מבנה ארגוני שונים. ניתן להדגים את ההבדל המהותי בין 3 צרכים אלה דרך הפריזמה של התחרות:

  • מיהו המתחרה שלנו בתחום ממוקד ה-IT? תקציב ומשאבי הארגון, וכן נותני שירותים חיצוניים המספקים אותו שירות במחיר טוב יותר.
  • מיהו המתחרה בתחום ממוקד- פונקציות עסקיות? Shadow-IT, אותן שירותים ואפליקציות אשר פונקציות עסקיות שונות בארגון כמו שיווק, ניהול לקוחות, כספים – יכולים לצרוך בענן ללא התערבות רבה של IT.
  • מיהו המתחרה בתחום ממוקד-לקוח? מכיוון שכאן מדובר לא על מערכות המשרתות את הארגון על מנת לשרת את הלקוח, אלא מדובר על המוצר הדיגיטלי שלי המשרת ישירות את הלקוח, רמת הקריטיות בניהול תהליכי פיתוח קצרים, שחרור גרסאות מהר, יצירת מערך תמיכה מאוד יעיל ועוד, עולה משמעותית. מדובר על יכולת הארגון לנהל "מוצר SaaS" לכל דבר, עם הבדיקות, שחרור גרסאות קטנות, תמיכה וניהול הצלחת ההטמעה לכל דבר, ממש כמו ספק SaaS טכנולוגי.

ההתפתחויות הטכנולוגיות המשמעותיות ביותר: תחום ה Blockchhain (מעין ספר ראשי מבוזר של טרנזאקציות על ידי חברים ברשת, היישום המפורסם ביותר הוא הפלטפורמה ה"מנהלת" את מטבע הביטקוין אך כיום תעשיות רבות ומגוונות בוחנות וחלקן כבר מיישמות טכנולוגיה מהפכנית זו); מציאות מדומה שתלך ותיעשה נפוצה הרבה יותר; ביג דאטה ואנליטיקה שהשנה, לראשונה, הפכה לטכנולוגיית mainstream בשוק הבינלאומי – עדיין לא בישראל; הספדה בתלת-מימד; סייבר; רובוטים אוטונומיים; אינטרנט-של-דברים וטכנולוגיות מכונה-למכונה; ואספקת שירותי ענן.

נקודה אחרונה היא נושא הדיגיטל, כיום מתחילים לדבר על עידן Post Digital וזה ממש לא מכיוון שמיצינו את האפשרויות במדיה הדיגיטלית, רחוק מכך. אלא מכיוון שהמדיה הדיגיטלית אינה "אי" בפני עצמו, כיום יש התחלה של חיבורים מעניינים בין המרחב הפיזי למדיה הדיגיטלית, כאשר המידע הדיגיטלי מעצים את החוייה הפיזית (וגם להיפך, המידע הפיזי – לדוגמה, רכישות שלנו בחנות) מעצים את החוייה הדיגיטלית (מהם המסרים השיווקיים אליהם ניחשף?). אחת הדוגמאות המעניינות לחויית דיגיטל-פיזי מועצמת היא המהלך של אמאזון אשר פתחה רשת חנויות ספרים. חוויות הרכישה שלנו בחנויות השתנתה וכיום מאוד מושפעת מהמידע הדיגיטלי. אין ספק שחברות ינצלו את זה כדי להעצים את חויית הקנייה.

 

מה זה אומר להיות "ארגון אקספוננציאלי"?

שימו לב לצרכן האנליטי הבא: HR!

כשאנו חושבים על המשתמשים העיקריים בכלי אנליטיקה בארגון, הראשונים שעולים לראש הם בדר"כ משתמשים פיננסיים או כלכלנים / אנליסטים. ה-CFO/ מנהל/ת הפיננסים, באופן היסטורי, מהווה את הלקוח ה"קלאסי" של IT לאספקת שירותי BI ואנליטיקה.

החל משנת 2014 בערך, ה-CMO/ מנהל/ת השיווק ומנהלי/ות דיגיטל החלו להוות לקוח משמעותי נוסף, ואין ספק שבשנים הקרובות אנליטיקה ודאטה יהוו כלי עבודה הכרחי ועיקרי שלהם בתהליכי קבלת ההחלטות היומיומיות ברמה התפעולית והאסטרטגית.

מסתמן שהלקוח הבא הולך להיות, באופן מעט מפתיע – מנהל/ת משאבי אנוש. מדוע מפתיע? אנשי משאבי אנוש "סובלים" ממוניטין של אנשים מאוד לא טכנולוגיים, אנשים שאינם "חיים ונושמים" נתונים, וחלקם אף מצטיירים ככאלה שעצם המחשבה למדוד או למקם נתוני "אנשים" על פני גרף לא עושה להם טוב… אך כל הסימנים מראים שתחום ה HR analytics אכן הולך ותופס תאוצה. כבכל תחום "חם", גם בתחום זה הבאזוורדים הם רבים – "ביג דאטה לנתוני משאבי אנוש", Talent analytics, Workforce analytics, ומונח חביב במיוחד מאת דלויט: "Datafication של תחום ה-HR".

josh-bersin-datafication-of-hr-17-638

 

מגמה זו מעניינת במיוחד, שכן מדובר על חידוש של ממש. מנהלי תחום HR אף פעם לא ממש נהנו משירותים אנליטיים. הם פשוט לא נחשבו בעיניי מערכות מידע לקוח "מעניין" או אטרקטיבי בהיבט של אנליטיקה (באחד ממפגשי שולחן עגול שקיימנו בנושא אחד המנמ"רים ציין כי: "לא כיף לעבוד מולם, הם לא אנשי דאטה, אלא אנשים שהולכים עם מחברת ביד…"). לכל היותר, אנשי ה-HR קיבלו דוחות תפעוליים די בסיסיים, שעונים על שאלות יחסית פשוטות המתייחסות לנתוני עבר. אין אנליטיקה, אין תובנות, אין שילוב עם עולמות תוכן עסקיים אחרים.

בשיחותינו לאחרונה עם מנהלי/ות משאבי אנוש, אין ספק שכיום הם צמאים לטכנולוגיה ולדאטה. המגמה בשנים האחרונות של אימוץ "סוויטות" HR ו Talent management מהווה מעין שלב ראשון בעיניהם בדרך למטרה הנכספת: VIEW אחיד על העובד, היכולת לשאול שאלות הנשענות על תחזיות, לקבל תובנות, וכמובן בסופו של דבר – כלי לקבלת החלטות יותר מושכלות. נוכחנו לראות שכאשר מנהלי/ות HR נחשפים לאנליטיקה מתקדמת ולסוג התובנות שניתן לקבל באמצעות HR analytics הם פשוט… נדלקים!

מאחורי הרצון ליותר דאטה, ויזיביליות ואנליטיקס עומדת מטרה נוספת – הרצון להתחבר ליעדים העסקיים של הארגון וגם להעלות את המעמד של תחום משאבי אנוש בארגון, עד שיגיע למקום היותר ראוי לו – כחלק משולחן הדיונים של ההנהלה הבכירה בארגון.

על מנת להבין לאן כל העסק הזה הולך, ניתן להתרשם מהשוק הבינלאומי ולראות כיצד ארגונים מסוימים הצליחו להתחבר ליעדים העסקיים של הארגון ולהראות את ההשפעה של ההשקעה בהון האנושי על יעדים אלה. ניתן לקחת כדוגמה מטרה היושבת על שולחן הדיונים של כל ארגון בכל מגזר, הטרנספורמציה הדיגיטלית.  מנהלי משאבי אנוש מנסים כיום להראות מהי ההשפעה של ניהול ה Talent בארגון (לדוגמה, זיהוי Leaders ופיתוח היכולות שלהם בתחומים מסוימים) על יכולת הארגון לבצע טרנספורמציה דיגיטלית. בדוגמה זו, הנתונים עליהם ניתוח זה יסתמך לא מסתיימים רק במערכות משאבי אנוש, אלא גם על נתוני ביצועי הארגון, פיננסים, לקוחות ועוד. למהלך הזה KPMG קוראים Evidence-based HR (HR מבוסס ראיות/עובדות) בו למעשה מראים ומדגימים בפועל את ההשפעה העסקית שיש לקבלת החלטות הקשורות במשאבי אנוש והשפעתן על תוצאות השורה התחתונה של הארגון.

חברת המחקר של דלויט – Bersin המתמקדת בתחום ה- HR ו Talent מתארת את העידן בו אנו חיים כ – Talent Economy, ומציינת כי ה Datafication (התהליך בו שמים למעשה את הדאטה במרכזה של פעילות מסוימת) בתחום משאבי אנוש הנו בלתי נמנע:

מה סוג התובנות שניתן לקבל באמצעות Talent analytics? מספר דוגמאות מבין שלל דוגמאות מעניינות בהן נתקלנו:

  • הערכת ביצועים (זיהוי HIPOs – High potential employees). ארגונים כיום מזהים קושי בקבלת "תמונת הביצועים בארגון" בהתבסס על כלי הביצועים הרגילים. כלי אנליטיקה יכולים לספק תמונת ביצועים בהתבסס על נתונים רבים שכבר קיימים בארגון.
  • אנליטיקה לצרכי הדרכה והכשרה (אילו נושאי הדרכה יותר אפקטיביים ברמת העובד הספציפי? אילו פערי ידע קיימים? אילו פיצ'רים בהדרכות אונליין מביאות לשיפור משמעותי של הביצועים? אילו אינדיקטורים קיימים ללמידה יותר אפקטיבית / העלאת ה engagement של העובד?
  • זיהוי שחיקת עובדים – בדומה למודלים לזיהוי נטישת לקוחות, ניתן כיום לגבש מודל אנליטי החוזה אילו עובדים קרוב לוודאי שחוקים / מועמדים לעזיבה? אחד מה case studies כאן זיהה קשר מעניין – אם עובד הנו חבר אישי של אחד המנהלים, הסיכוי שיעזוב פוחת משמעותית. כתוצאה, הארגון השקיע בתכניות הכשרה ליצירת קשרים אישיים, תוך מדידה מתמשכת של אחוזי שחיקה ובחינת הקשר

אנשי IT – אל תפספסו את צרכן הBI/אנליטיקה הבא! מנהלי HR צמאים לתובנות ומסתמן שהם הלקוח הבא שלכם. ברוב המקרים אין צורך לטכנולוגיות סופר מתקדמות, לא נדרש פה מערך ביג דאטה או כלים אנליטיקה סופר מתוחכמים. דאטה מארט עם אנליזה טובה מעליו יספק בהחלט.

אנשי HR – אל תצמצמו את עולם התוכן לנתוני משאבי אנוש בלבד! הרחיבו את עולמות התוכן לתחומים העסקיים העיקריים של הארגון ואל תפספסו את ההזדמנות לשווק את הערך שיש לתחום משאבי אנוש וקבלת ההחלטות שבו על היעדים העסקיים של הארגון.

שימו לב לצרכן האנליטי הבא: HR!

STKI MARKET PULSE – עדכונים מהירים על קצה המזלג:

הדבר הבא באנליטיקה: Machine intelligence

Machine Intelligence (השילוב בין Machine Learning ובין Artificial intelligence) הנה ההתפתחות הטכנולוגית המעניינת ביותר שתשפיע לא רק על עולם העסקים, אלא על הדרך בה אנחנו כצרכנים ועובדים נחיה את חיינו היום-יומיים. מחשבים כבר למדו לחשוב, לקרוא, להבין, לדבר וללמוד דפוסי התנהגות (כיום עובדים על חוש הריח).

אך היכן נמצא השוק ביחס להתפתחויות טכנולוגיות אלה? טכנולוגיות Machine learning כבר די בשלות, ברמות שונות. ישנן טכנולוגיות בסיסיות אשר זמינות ופותחות החוצה את שירותיהן בתצורת APIs, יש מתקדמות יותר. וישנן גם אפליקציות – וכאן החלק המעניין באמת. במסגרת כנס ביג דאטה ו Machine Learning,Shivon Willis (החוקרת את התחום ב- Bloomberg), יצרה מפת טכנולוגיות מעניינת, אותה היא מחלקת לטכנולוגיות; אפליקציות המיועדות לשינוי חיי אנשים; תעשיות; Enterprises; כלים משלימים ועוד חלקים המרכיבים את ה Eco system הזה, שכמעט כולו מורכב מסטארטאפים. אבל לא רק, גם ספקים כדוגמת מיקרוסופט (יכולות ML ב Azure), אמאזון Machine Learning, היכולות הקוגניטיביות, ספקי אנליטיקה כדוגמת SAS ועוד.

שורה תחתונה: בקרוב כולנו נרגיש את ההשפעה של כלי Machine Learning בתחומים שונים, כאשר בתחומי ה-IT התחום הראשון בו ארגונים יוכלו להתחיל ליהנות מיכולות אלה יהיה תחום האנליטיקה, במיוחד פרויקטים חדשניים באנליטיקה ו – Big data analytics בהם לאנליסטים ו Data Scientists "מתחילים" אין תמיד מספיק ניסיון לדעת איזה מודל אנליטי מתאים לאיזו בעיה עסקית, טכנולוגיות אלה יוכלו לסייע בתהליך חשוב זה ולקצר את עקומת הלמידה, שהנה מאוד משמעותית כיום ומעכבת time to market. אנו ממליצים לחפש יכולות ML בכלי האנליטיקה שארגונים בוחנים כיום.

 Internet of Things

תחום ה Internet of Things מסמל בצורה הטובה ביותר את השינויים המהותיים המתרחשים כיום, הן בהיבטים הטכנולוגיים והן בהיבטים העסקיים. הרעיון של טכנולוגיית Internet of Things איננו רעיון חדש, אך הטכנולוגיה הבשילה, עלויות התקשורת ירדו, רוחב הפס עלה, סנסורים זמינים לכל כיס, והענן מאפשר עיבוד נתונים המגיעים ממיליוני מכשירים משדרים. כל זה משנה את המציאות שלנו ללא הכר. בקרוב לא נשאל אחד את השני איזה אוכל או מוזיקה אתה אוהב, אלא איך אתה חווה את המציאות? כי אנחנו חווים מציאות בצורה שונה.

שעון מעורר המנטר את השינה שלי יצלצל בדיוק בשלב המתאים ביותר להתעוררות, הסנסורים בבית החכם ידליקו את האור (בהדרגה) ויפעילו את מכונת הקפה, ובזכות החיבור ליומן ולפקקים מכשירים אישיים חכמים יציעו לי מתי לצאת מהבית, יתאמו מוזיקה, ידברו עם הרכב… וכמובן, הציפייה לשירות מחובר, רציף, מנותר ופרו-אקטיבי נכנסת במהירות גם לעולם הארגוני. אולם, תחום ה- M2M – Machine-to-Machine קיים כבר היום, מכונת השתייה שידרה למרכז הבקרה שהקולה נגמרה, אבל האדם היה זה שהחליט האם להוציא את משלוח הקוקה קולה כבר עכשיו וכמה בקבוקים צריכים להיות שם. העתיד מדבר על מערכות שייקחו את ההחלטות הללו באופן עצמאי. מכשירים חכמים, המדברים בינם ובין עצמם משדרים לענן, מנתחים את המידע ומחליטים החלטות בכל רגע נתון.

שורה תחתונה: ניטור וניתוח מתמיד של מידע המתאפשר היום בזכות מיליוני סנסורים, ענן, אנליטיקה דיגיטאלית, מזהה דפוסים שלא היינו ערים להם קודם לכן, מקצר לנו את תהליך של קבלת ההחלטות, מציע ומבצע את הדבר המומלץ ביותר עבורי. ולמרות לא מעט אתגרים לא פתורים של התחום, הצדקתו הכלכלית ברורה וקלה להוכחה. אנו צופים בתקופה הקרובה כניסה רחבה של ארגונים לפרויקטי IoT, הן פרויקטים הפונים לקהל הרחב, אשר משדרגים את חווית הלקוח וחדשנות, והן פרויקטים ארגוניים Internet of Corporate Things-, אשר מייעלים תפעול, חוסכים העלויות ומציעים תהליכי עבודה שלא היו אפשריים קודם לכן.

תיבות דואר בענן כמשל לענן – פוטנציאל גדול אך מציאות מורכבת

ככל שהזמן עובר נראה שפתרונות ענן  תופסים תאוצה והופכים להיות "the new normal" במצבים רבים יותר ויותר. מדובר על פתרונות חדשניים, המסייעים בהורדת מאמץ התפעול ותוך תשלום לפי שימוש בפועל. כלומר מדובר על התאמה מיטבית לדרישות הארגון.

אולם, מסתבר שהענן אינו "התשובה לכל שאלה" ויישום פתרון ענן עלול להיות מאתגר במיוחד. לאחרונה אנחנו מקבלים פידבקים מארגונים אשר מתחילים תהליך של העברת תיבות הדואר שלהם מהארגון לענן. באופן כללי הפידבק הנו פידבק טוב. תיבות הדואר בענן בעלות קיבולת גדולה יותר ממה שהיה מקובל בארגון ואין צורך לבנות סביבה ייעודית של ארכיון. הזמינות גבוהה. הביצועים טובים. הארגון מקבל שירותים של גיבוי כחלק מהשירות (ללא התקנה של תוכנה נוספת) ועוד. שירות דואר בענן הנו אחד מהתחומים הטבעיים ביותר במיוחד לחברות חדשות, זאת גם בגלל שבעולם הפרטי מדובר על סטנדרט (gmail, outlook.com וכד').

עם זאת, מתקבלים פידבקים המצביעים על כך שמעבר של ארגון ותיק לענן אינו טריוואלי בלשון המעטה. לדוגמה, אצל לקוח מסוים חלק מהארגון הסתמך על תכונה ישנה של שרת הדואר- עבודה בתצורה של online- כל הבקשות מטופלות מיד על ידי השרת המקומי. אך הסתבר שפתרון הענן תומך רק בתצורה של cached mode והמשמעות היא שהשרת שולח מספר בקשות ביחד ולא מטפל בכל בקשה באופן מידי. לפתרון זה מספר יתרונות ביניהם חסכון בתקשורת אולם טכנולוגיה זו גם גורמת לכך שישנם לעיתים עיקובים של מספר דקות בטיפול בבקשות. ברוב המקרים משתמשי הדואר אינם ערים לכך ועבודתם אינה מושפעת אולם באחד הארגונים תהליך עסקי של שירות הלקוחות הסתמך על כך שנציג שירות הלקוחות מבצע שיחת ועידה עם האחראי עליו ובמקביל שולח לו את המייל הרלוונטי. כל עוד עבדו בשיטה הישנה המייל היה מגיע מיד כאשר עברו לענן היו עיכובים בקבלת המיילים (בגלל המעבר ל-cached mode) כל זאת בזמן שהלקוח ממתין בטלפון. המשמעות היא פגיעה בתהליכי העבודה ומובן שהדבר עורר תרעומת בקרב הגורמים העסקיים.

פידבק נוסף דיבר על מצבים שבהם מגיעים למגבלות בענן. תיבת דואר בענן מוגבלת למשלוח של 30 הודעות מייל בדקה או 10K הודעות ביום. אין אדם שמגיע או אפילו מתקרב למגבלות אלו אולם תיבת דואר מתוך אפליקציה (ERP\CRM) או תיבת דואר ארגונית המספקת הודעות ארגוניות (תקלות בארגון, אירועים חשובים וכד') מגיעה בקלות למגבלות אלו ולכן נדרשת התאמה מיוחדת ושינויים באפליקציה כאשר עוברים לענן.

שורה תחתונה: אין בנאמר כאן משום טענה שהענן אינו אסטרטגי ואינו בשל מיוחד בפעילויות חדשות של הארגון. אולם כאשר מעבירים תהליכים שכבר קיימים בארגון לתוך הענן יש לבצע עבודת הכנה ומיפוי מקיפה בכדי לוודא שתהליכים אלו יתמכו בצורה טובה בענן.

The Israeli Privacy Data Dance – Opportunity or Difficulty?

Israel's Privacy Protection Law states that a citizen's personal data cannot be exported to a country with a lesser level of protection than that guaranteed by Israel. On October 6th, the European Court of Justice (ECJ) decided to invalidate the Safe Harbor Program between the EU and US.  The European Court of Justice held that the U.S.-EU Safe Harbor Program failed to provide adequate protection for EU citizens. Based on that decision, the Information and Technology Authority (ILITA), Israel's data protection authority revoked on October 19th its prior authorization for data transfers from Israel to the U.S. based on the U.S-EU Safe Harbor Program certification.

This may create an opportunity for Israeli companies, since the European Commission's 2011 decision remains in effect, the ECJ decision may create a competitive advantage to companies conducting processing or storage activities in Israel, as these companies can continue to receive data from Europe without the uncertainty now inherent in EU-US data transfers. Consequently, Israeli companies will need to find an alternative legal basis for transferring personal data to the U.S., and could experience an “uncomfortable transition period,” according to Limor Shmerling, ILITA's director of licensing and inspection.  “It's too early to tell how the market will be affected and how practices may need to be changed,” she said, adding that the authority is “considering the implications of the new legal status and will further address the subject accordingly.”

This may also create a challenge for local operators of multi-nationals including large local operations of multi-nationals such as IBM, Intel Corp., Microsoft Corp., Google Inc., Facebook Inc. and Hewlett-Packard Co., as well as Israeli “unicorns” such as Waze, Wix and IronSource., according to a statement by the U.S.-based International Association of Privacy Professionals (IAPP), “the decision could pose a significant barrier to data flow from Israel's surging technology sector,”

“Since the Safe Harbor arrangement is currently invalid under European law, and as long as there is no other valid arrangement or another formal decision of the European Union (EU) with respect to the transfer of data from Europe to destinations in the United States, database owners who wish to transfer personal data from Israel to entities in the United States are therefore required to assess whether they can base the data transfer on another of the derogations determined in the regulations,“ the ILITA said in its decision.

The EU's recognition of U.S. Safe Harbor certification, combined with its 2011 granting of “adequacy” status to Israel under the EU Data Protection Directive, allowed personal data to flow freely between the EU and Israel, and on to U.S. companies on the Safe Harbor certification list.

The Safe Harbor system has been widely used to legitimize the outsourcing of services by EU-based companies and their commercial partners to U.S.-based cloud or software-as-a service (SAAS) providers, and to facilitate intra-group data-sharing among entities with both U.S. and EU operations.  Although this has not had the desired effect in Israel and this new stance by ILITA goes hand in hand with the new Israeli Cloud Banking Regulation 357 stating that core data cannot be in the cloud.

It added, however, that current Israeli business models could be affected, including Israeli companies with European affiliates that previously relied on the Safe Harbor arrangement to transfer data to the U.S., as well as Israeli companies outsourcing storage or processing activities to U.S. service providers or affiliates that include information on European customers, in which case they may need to amend their customer agreements to include authorization for the transfers.

Bottom Line: Know your options and plan accordingly.

STKI MARKET PULSE – עדכונים מהירים על קצה המזלג:

רשמים עיקריים מסקירה עם Amazon Web Services – AWS

לאחרונה קיבלנו סקירה מאוד מעניינת מחברת AWS. בסקירה עלו מספר מגמות מעניינות – בתור "ראי" למתרחש בעולם הטכנולוגי.

AWS משקיעה רבות בתחומים שלדעתה יביאו את בשורת ה- digitalization באופן המהיר ביותר. על פי ה- digitalization, תפקיד ה- CIO\CTO משנה צורה ועובר משלב שבו עיקר הפעילות היה בתפעול ופיתוח מערכות המידע הפנימיות, המשמשות את העובדים בארגון לשלב שבו ה- CTO\CIO מתרכזים בפעולות דיגיטליות חדשות המביאות ערך עסקי חדש לארגון.

לדוגמה, AWS הכריזו לאחרונה על שירות של API Gateway. שירות זה מאפשר לארגון העסקי להרחיב את הפעילות העסקית על ידי שימוש בעקרונות של API Economy תוך בנייה של שיתופי פעולה חדשים ואפשור הגדלה של הערך הניתן ללקוחות הארגון. השירות מטפל בחשיפה של API שכבר נכתבו בארגון לשיתופי פעולה חדשים תוך שמירה על אבטחת מידע, הגדרת הקיבולות לשימוש על ידי המשתמשים השונים ועוד.

על ידי יישום API Economy הופך ה- CIO\CTO לשותף בהרחבת הפעילות העסקית של הארגון ובכך מחזק באופן משמעותי את מיקומו הארגוני.

תחום נוסף המממש את עקרונות ה- digitalization הוא אפליקציות ה- mobile המתקדמות. אפליקציות אלו הופכות להיות לנקודת המגע העיקרית של הלקוחות עם הארגון וגם כאן הופך ה- CTO\CIO לשותף אסטרטגי במימוש המדיניות העסקית בארגון. ל- AWS שירותים רבים שקשורים לתחום ה- Mobile כאשר לאחרונה הוכרז שירות ה- AWS Device Farm. מדובר על מעבדה עם רשימה מכובדת של התקני mobile (פירוט סוגי המכשירים ב- https://AWS.amazon.com/device-farm/device-list/ ) עם חיבוריות לתשתיות בדיקה אוטומטית. השירות מאפשר להריץ בדיקות אוטומטיות לאפליקציות mobile על מספר רב של מכשירים ולקבל חיווי על התקלות השונות – פר סוג מכשיר.

באופן כללי השימוש בענן הולך ומתרחב. בעוד העברת המערכת מתוך הארגון לענן תוך שמירה על הארכיטקטורה הקיימת אפשרית, מיצוי היכולות בענן מתקבל בעיקר על ידי הסבת הארכיטקטורה ליכולות הספציפיות של הענן המדובר. בתחום זה ל- AWS יש את המבחר הגדול ביותר של שירותים. נזכיר בקצרה כמה מהם- Lambda הנו שירות המריץ קוד כ-trigger לאירוע מסוים כשהתשלום מחושב לפי מספר הפעמים ומשך הזמן שהקוד רץ. שירות זה (בתמיכה של שירותים אחרים) מאפשר להפעיל מערכות שלמות ללא שרתים יעודים!! במידה והארגון גם בוחר להשתמש בכלי תוכנה דרך ה- AWS Marketplace הרי שגם נושא התאמת רישוי התכנה למספר השרתים שהיו בשימוש- נחסך ממנו!

דבר נוסף שעלה בדיון הוא פתירת החסם על העברה גדולה של נתונים לענן. ארגונים חוששים מעלויות תקשורת נכבדות כאשר צריך להעלות נתונים רבים לענן – בעיקר בהקמת הפרויקט (לדוגמה כאשר מעבירים DW גדול לענן). בתחום זה ל- AWS פתרון על ידי שירות בשם AWS Import/Export המאפשר שליחה והחזרה של דיסקים פיזיים ומוצפנים באמצעות DHL וטעינתם לענן תוך מספר ימים.

לאחרונה הוכרזו מספר שירותים חדשים ביניהם Amazon WorkSpaces שהנו בפועל מכונת Windows שרצה בטכנולוגיית VDI ב- AWS ותמונת המסך משודרת ללקוח. שירות זה מתאים במיוחד ללקוחות שרוצים להפעיל פתרון של גלישה מאובטחת – ללא השקעה רבה בתשתית גלישה מאובטחת ב- DMZ. מקרה נוסף שבו שירות זה יכול לשפר משמעותית את חוויית הלקוח היא ביישומי BI שבהם חוויית הלקוח אינה מספיק טובה בגלל זרימת הנתונים האיטית בין ה- DW לבין ה- PC של הלקוח עליו מותקן כלי ה-BI. על ידי שימוש ב- Amazon WorkSpaces מתקצר מאוד "המרחק" בין ה-PC לבין ה- DW וכך חווית הלקוח משתפרת באופן משמעותי.

פתרון ה-DW בענן (Redshift) של אמאזון משמש חברות שרוצות יותר גמישות בכוח הגידול של ה-DW שלהן, או לחילופין יישומים אנליטיים חדשים. אמאזון מספקת את שכבת ה"תשתית" של ה-DW (שמקבילה לתשתיות DW שאנו מכירים מעולם ה on premise) אך גם חברה לספקי BI ו Front end שונים, אותם היא מציעה כחלק מה- Offering שלה דרך ה- Marketplace. המשמעות היא שניתן לצרוך STACK שלם (לא רק את תשתית ה-DW אלא גם את הכלים מעליו) במודל לפי צריכה. מודל זה מאוד מתאים לחישובים "כבדים" המתאפיינים ב Peaks מסוימים (מבצעי סוף שנה, חישובים שמתבצעים אחת לתקופה, מודלים כבדים שצריך להריץ מדי פעם).

נושא נוסף מעניין (שמקבל הרבה תשומת לב לאחרונה בתחום האנליטי) הוא יכולות ה Machine Learning שאמאזון מציעה. יכולות ה-ML מסייעות פעם אחת לבנות את המודל הסטטיסטי המתאים, ופעם שנייה – להריץ אותו בפועל. התשלום במקרה זה יהיה לפי מס' הפעמים בהן נעשה שימוש במודל החיזוי.

לסיכום, אמאזון הנה בהחלט מובילת שוק בסגמנטים רבים של עולם הענן ואנחנו מצפים שתמשיך בהובלה זו.

ישנם ארגונים בארץ אשר עדיין לא מיישמים ענן במלוא הפוטנציאל הראוי אך אנחנו מצפים שעם הזמן יישום הענן בישראל יגבר.

רשמים עיקריים מסקירה עם Amazon Web Services – AWS