Açıklama
Eğitmen: Talha Kılıç
Uzmanlık Alanları: Büyük Veri Teknolojileri, Dağıtık Veri İşleme, AI Destekli Veri Yönetimi, Gerçek Zamanlı Veri Akışı
Süre ve Format
- Eğitim Başlangıç Tarihi: 6 Mayıs 2025 – 20:00
- Toplam Süre: 8 hafta – 16 saat
- Haftalık Oturum: 1 gün (Toplam 8 oturum)
- Her Oturum Süresi: 2 saat
- Platform: Google Meet
- Seviye: Orta ve İleri Seviye
- Etkileşim: Gerçek dünya veri senaryoları, uygulamalı örnekler, proje bazlı öğrenme
Eğitim Hedefleri
- Büyük veri ekosistemlerinin temel bileşenlerini kavramak
- Apache Spark ve Flink gibi araçlarla büyük veri işleme tekniklerini öğrenmek
- Apache Kafka ile gerçek zamanlı veri akış yönetimini anlamak
- Elasticsearch ve MongoDB gibi NoSQL çözümlerinin kullanımını keşfetmek
- AI destekli büyük veri analiz teknikleriyle iş süreçlerini optimize etmek
- Apache Airflow kullanarak otomatik veri boru hatları (data pipelines) tasarlamak
Eğitim İçeriği
1. Hafta: Büyük Veriye Giriş ve Geçiş Süreçleri
- Büyük veri nedir? Temel kavramlar ve veri büyüklüğünün tanımlanması
- Yapay zeka ile büyük verinin kesiştiği noktalar
- Geleneksel veri yönetiminden büyük veri teknolojilerine geçiş süreçleri
- İnteraktif Tartışma: Katılımcılar, sektörlerine özel büyük veri kullanım senaryoları geliştirir
- Hafta: Apache Spark ve Flink ile Dağıtık Veri İşleme
- Apache Spark ve Apache Flink’in çalışma prensipleri
- Dağıtık veri işlemeye giriş: Batch ve stream processing farkları
- Büyük veri analizinde yapay zekanın rolü
- Demo: Apache Spark kullanarak büyük veri kümesi işleme örneği
- Hafta: Gerçek Zamanlı Veri Akışı – Apache Kafka
- Gerçek zamanlı veri işleme ihtiyacı ve avantajları
- Apache Kafka ile olay (event-driven) tabanlı veri akışı yönetimi
- Kafka ile AI destekli veri analitiği uygulamaları
- Workshop: Kafka üzerinden gerçek zamanlı veri akışı yönetimi örneği
- Hafta: NoSQL Veritabanları – Elasticsearch & MongoDB
- Geleneksel veritabanlarından NoSQL çözümlerine geçiş
- Elasticsearch ile büyük veri arama ve analitik yetenekleri
- MongoDB ile ölçeklenebilir veri yönetimi
- İnteraktif Uygulama: NoSQL veri tabanı kullanarak büyük veri kümesi oluşturma
- Hafta: Data Lake Mimarileri ve Yönetimi
- Data lake nedir? Veri ambarlarından farkları
- Büyük veri için etkili depolama ve yönetim stratejileri
- Yapay zeka ile veri temizleme ve optimizasyon teknikleri
- Vaka Analizi: Büyük ölçekli bir organizasyonun veri yönetim modeli
- Hafta: Apache Airflow ile Veri Boru Hatları (Data Pipelines)
- Apache Airflow ile veri süreçlerini otomatikleştirme
- Veri işleme iş akışlarını tasarlama ve zamanlama
- Workshop: Airflow ile basit bir veri pipeline’ı oluşturma ve yönetme
- Hafta: AI Destekli Kod Yazımı ve Optimizasyon Teknikleri
- AI destekli büyük veri analizlerinde performans optimizasyonu
- AI tabanlı kod öneri sistemleri ile büyük veri yönetimini hızlandırma
- Canlı Demo: Yapay zeka ile veri işleme kodlarının iyileştirilmesi
- Hafta: Gerçek Dünya Uygulamaları ve Final Projesi
- Büyük veri ve AI ile dolandırıcılık tespiti
- AI destekli veri tahminleme modelleri
- Final Proje Sunumu: Katılımcılar, öğrendikleri teknolojileri kullanarak bir büyük veri projesi hazırlar ve sunar
Eğitim Metodu ve Etkileşim
- Uygulamalı Dersler: Gerçek dünya büyük veri senaryoları üzerinden örnekler
- Workshoplar: Katılımcılar büyük veri işleme ve yapay zeka entegrasyonu üzerine çalışır
- Grup Çalışmaları: Veri setleri üzerinden analizler yapılarak projeler üretilir
- Geri Bildirim ve Mentörlük: Eğitmen tarafından birebir proje değerlendirmesi
Kazanımlar
- Büyük veri teknolojilerinin temel ve ileri seviye kavramlarını öğrenme
- Apache Spark, Flink, Kafka gibi modern veri işleme araçlarını kullanabilme
- AI destekli büyük veri çözümleri ile iş süreçlerini iyileştirme
- NoSQL veri tabanlarını kullanarak veri yönetimi becerisi edinme
- Apache Airflow ile otomatik veri işleme süreçleri tasarlama
- Masqot onaylı katılım sertifikası alma
Değerlendirmeler
Henüz değerlendirme yapılmadı.