תוכן עניינים:
נתונים גדולים, השם הקליט לכמויות אדירות של נתונים מובנים, לא מובנים או מובנים למחצה, קשה להפליא לתפוס, לאחסן, לנהל, לשתף, לנתח ולדמיין, לפחות באמצעות יישומי מסד נתונים ותוכנה מסורתיים. זו הסיבה שלטכנולוגיות נתונים גדולים יש פוטנציאל לנהל ולעבד כמויות עצומות של נתונים ביעילות וביעילות. וזה Apache Hadoop שמספק את המסגרת והטכנולוגיות הנלוות לעיבוד מערכי נתונים גדולים על גבי אשכולות מחשבים בצורה מבוזרת. אז, בכדי להבין באמת נתונים גדולים, עליכם להבין מעט את Hadoop. כאן נסקור את המונחים העליונים שתשמעו ביחס לחאדוף - ולמה הם מתכוונים.
וובינר: Big Iron, פגוש Big Data: משחרר נתונים של Mainframe עם Hadoop & Spark הירשם כאן |
אבל ראשית, מבט איך Hadoop עובד
לפני שנכנסים למערכת האקולוגית של Hadoop, עליכם להבין שני דברים מהותיים בבירור. הראשון הוא כיצד מאוחסן קובץ בהאדוף; השנייה היא אופן עיבוד הנתונים המאוחסנים. כל הטכנולוגיות הקשורות בהודופ עובדות בעיקר על שני תחומים אלה והופכות אותה לידידותית יותר למשתמש. (קבל את היסודות כיצד Hadoop עובד כיצד Hadoop עוזר לפתור את בעיית ה- Big Data.)
עכשיו, על התנאים.