تحليل البيانات الضخمة باستخدام Hadoop

عدد الدروس : 49 عدد ساعات الدورة : 10:49:42 شهادة معتمدة : نعم التسجيل في الدورة للحصول على شهادة

للحصول على شهادة

  • 1- التسجيل
  • 2- مشاهدة الكورس كاملا
  • 3- متابعة نسبة اكتمال الكورس تدريجيا
  • 4- بعد الانتهاء تظهر الشهادة في الملف الشخصي الخاص بك
كورس شامل يحتوي على 59 فيديو يشرح تقنيات Hadoop وأدواته لتحليل البيانات الضخمة. يغطي الكورس HDFS، MapReduce، Apache Hive، Spark، Kafka، Flume، والمزيد

قائمة الدروس

عن الدورة

Big Data Hadoop Full Course" هو كورس شامل يتناول جميع الجوانب المهمة لتحليل البيانات الضخمة باستخدام Hadoop. يغطي الكورس التقنيات الأساسية مثل HDFS وMapReduce، بالإضافة إلى أدوات متقدمة مثل Apache Hive، Spark، Kafka، Flume، وغيرها. يقدم هذا الكورس تجربة تعليمية متكاملة تتيح للمبتدئين والمحترفين تحسين مهاراتهم في تحليل البيانات الضخمة.


تفاصيل المحتوى:

الفصل الأول: الأساسيات والتعريف بـ Hadoop

  • الفيديو 1: مقدمة عن Hadoop وما هي البيانات الضخمة.
  • الفيديو 2: شرح نظام Hadoop البيئي وأدواته المختلفة.


الفصل الثاني: نظام الملفات الموزع HDFS

  • الفيديو 5: شرح مفصل لنظام Hadoop Distributed File System.
  • الفيديو 4: التفاعل مع HDFS باستخدام واجهة الأوامر والويب.


الفصل الثالث: MapReduce

  • الفيديو 6: فهم MapReduce وآلية عملها.
  • الفيديو 8: تشغيل أول تطبيق MapReduce لتحليل بيانات تقييم الأفلام.


الفصل الرابع: قواعد البيانات مع Hadoop

  • الفيديو 10 - 12: استخدام Apache Hive لتشغيل الاستعلامات على Hadoop.
  • الفيديو 19 - 21: تكامل MySQL مع Hadoop باستخدام Sqoop.


الفصل الخامس: Apache Spark وDataFrames

  • الفيديو 13 - 16: التعرف على Apache Spark وكيفية إنشاء DataFrames.
  • الفيديو 16: تشغيل أول تطبيق Spark على Hadoop.


الفصل السادس: أنظمة NoSQL مع Hadoop

  • الفيديو 22 - 27: استخدام قواعد بيانات NoSQL مثل HBase، Cassandra، وMongoDB مع Hadoop.


الفصل السابع: معالجة البيانات في الوقت الفعلي

  • الفيديو 47 - 58: استخدام أدوات مثل Kafka، Flume، Spark Streaming، وApache Storm لمعالجة البيانات المتدفقة في الوقت الفعلي.


الفصل الثامن: أدوات متقدمة

  • الفيديو 33 - 35: التعرف على Apache Drill وApache Phoenix لتشغيل الاستعلامات عبر قواعد بيانات متعددة.
  • الفيديو 55 - 56: استخدام Apache Flink لمعالجة تدفقات البيانات.

  • الفيديو 59: تهانينا! أصبحتم مطوري بيانات ضخمة محترفين.


لماذا تختار هذا الكورس؟

  • يغطي جميع أدوات وتقنيات Hadoop الأساسية والمتقدمة.
  • يقدم شرحًا عمليًا مفصلًا لكل أداة باستخدام أمثلة تطبيقية.
  • مناسب للمبتدئين والمحترفين في مجال البيانات الضخمة.


انضم إلى هذا الكورس لتتعلم كيفية التعامل مع البيانات الضخمة باستخدام Hadoop وأدواته المختلفة. استعد للارتقاء بمستواك المهني في عالم البيانات