90'larda Veri Dünyası: Nostalji Dolu Bir Yolculuk
Veri Boyutları: Bir iPhone Kadar
O yıllarda "büyük veri tabanı" dediğimiz şey 1-5 GB arasındaydı. Evet, yanlış duymadınız! Bugün bir iPhone'un fotoğraf albümünde olan veri kadar.
90'ların Veri Gerçekleri
500 MB'lık bir hard disk, masa üstü kasa kadar büyük bir cihazdı
64 MB RAM çok değerliydi ve servet değerindeydi
Standart veri taşıma aracı, sığmayan dosyalar için onlarca disk gerekiyordu
Diskler MB cinsinden satılıyordu. Asıl soru şuydu: "Bu veriyi nereye sığdıracağız?"
O Dönemin En Büyük Zorluğu
Bugün "bu uygulamayı nereye deploy edelim?" diye düşünüyoruz. O zaman "bu 10 MB veriyi nereye koyalım?" diye düşünüyorduk. Veri saklama, fiziksel bir kısıttı!
Veri Uzmanı Var mıydı?
Bugünün terimleriyle:
- "Data Scientist" yoktu
- "Data Engineer" de yoktu
- "Machine Learning Engineer"? Hayal bile edilmiyordu
O Dönemin Veri Kahramanları
- Programcılar: COBOL, RPG, SQL yazanlar
- Sistem Analistleri: İş süreçlerini veritabanına çevirenler
- DBA'ler (Database Administrators): Veritabanını ayakta tutanlar
- Gece Vardiyacıları: Batch job çalıştıranlar
- Sorgu Optimizörleri: SQL'i hızlandırmaya çalışanlar
İşte asıl veri insanları bunlardı! İş tanımları farklıydı ama yaptıkları işin özü, bugünkü veri uzmanlarınınkiyle aynıydı.
AS/400 ve Mainframe Çağı
Türkiye'de birçok kurumda IBM AS/400 vardı. Bu, bugünün sunucularının atalarından biriydi.
AS/400 Kullanan Kurumlar
- Bankalar (neredeyse tamamı)
- Sigorta şirketleri
- Üretim firmaları
- Büyük perakende zincirleri
AS/400 Nasıl Çalışırdı?
- RPG dili ile uygulamalar yazılırdı
- Yeşil ekran terminallerden bağlanılırdı (GUI? O neydi?)
- Yıllarca hiç kapanmadan çalışabilirdi
- Ana bilgisayar odaları klimalarla soğutulurdu
- Elektrik kesintisinde UPS sistemleri devreye girerdi
Sunucu Odası Kahramanları
O dönem sunucu odasına girmek ayrıcalıktı. Klimalı, temiz, sessiz bir ortam. İçeride çalışan kişiler, modern zamanların "DevOps mühendisleri" gibiydi. Onlara saygı duyulurdu, çünkü bir şeyler ters gittiğinde herkesi kurtaran onlardı!
Hangi Veri Tabanları Kullanılıyordu?
Oracle 7 & 8
Bankaların gözdesi. Pahalı ama güvenilir. SQL Plus ile bağlanılır, yeşil ekranda sorgular yazılırdı.
IBM DB2
Mainframe devlerinde kullanılırdı. AS/400'ün doğal veritabanıydı. Çok stabil, çok güvenli.
Sybase & Informix
Telekom tarafında popülerdi. Büyük veri setlerini yönetmek için tercih edilirdi.
MS SQL Server
90'ların ortasında çıkış yaptı ama gerçek yaygınlaşması 2000'leri buldu. Windows NT ile geldi.
PostgreSQL
Akademide vardı ama Türkiye'de çok bilinmiyordu. Open source henüz yaygın değildi.
MySQL
1995'te çıktı ama yaygınlaşması 2000'lerde web siteleriyle oldu. 90'larda henüz çok tanınmıyordu.
Teknolojiler Nasıl Çalışıyordu?
Donanım Kısıtları
Donanım pahalıydı, RAM kısıtlıydı. 64 MB RAM, bugünün 64 GB RAM'i kadar değerliydi. Yanlış bir SQL sorgusu bütün sistemi kilitlerdi!
Günlük İş Akışı
- Raporlar gece çalıştırılırdı: Sabaha çıktı alınırdı, kagıda basılırdı
- Yedekler kasetlere yapılırdı: DLT, DAT kasetleri kullanılırdı
- Bodrumlarda tape arşivleri: Yüzlerce, binlerce kaset raflar dolusu
- Gerçek zamanlı veri? Hayal bile edilemezdi. En iyisi "günlük batch" idi
- Backup restore: Saatler, hatta günler sürebilirdi
90'ların Acı Gerçekleri
- Bir query yanlış yazıldıysa, sistemi reboot etmek gerekebilirdi
- Index olmayan bir tabloya query yazmak = felaketti
- Full table scan = sistem durur, herkes eve giderdi
- Rollback segmenti dolduğunda işlem yarım kalırdı
- Disk dolduğunda tüm ekip panik moduna girerdi
Türkiye'de Veri Dünyası
Öncüler
Bankalar ve telekom şirketleri öncüydü. Türk Telekom, İş Bankası, Akbank, Yapı Kredi gibi kurumlar veri teknolojilerini ilk kullanan ve geliştirenlerdı.
Eğitim ve İnsan Kaynağı
- Üniversitelerde "veri bilimi" diye bir bölüm yoktu
- Bilgisayar mühendisliği yeni yeni yaygınlaşıyordu
- İş ilanlarında "Oracle bilen programcı aranıyor" yazardı
- Sertifika programları çok değerliydi
- Yurtdışına eğitime gönderilmek büyük ayrıcalıktı
90'lardan 2025'e: İnanılmaz Dönüşüm
O Zaman (1990'lar)
- Problem: Veriyi nasıl saklarız?
- Kapasite: 1-5 GB "büyük veri"
- Backup: Kasete kayıt, bodrum arşivi
- Erişim: Terminal, yeşil ekran
- Hız: Raporlar gece çalışır, sabah çıkar
- Maliyet: Donanım servet değerinde
- Uzman: DBA, programcı, sistem analisti
Şimdi (2025)
- Problem: Veriden nasıl değer çıkarırız?
- Kapasite: Petabyte'lar, exabyte'lar
- Backup: Multi-region replication, anlık
- Erişim: Web, mobil, API, her yerden
- Hız: Gerçek zamanlı, milisaniye
- Maliyet: Bulut, ölçeklenebilir, uygun
- Uzman: Data Scientist, ML Engineer, Data Engineer
Karşılaştırmalı Rakamlar
2025: Birkaç kuruş, bulutta sınırsız
2025: Marketten USB disk alabiliyorsunuz
2025: Milisaniyeler
O günün DBA'leri bugün yaşasa: Cloud-native, serverless, AI ops, Kubernetes kelimelerine inanmaz, "Siz şaka mı yapıyorsunuz?" derlerdi!
İşte 90'ların Veri Dünyası Böyleydi
Sınırlı kaynaklarla büyük işler yapan insanlar vardı. Her megabaytın değerli olduğu, her sorgunun dikkatlice yazıldığı, her sistemin el bebek gül bebek büyütüldüğü bir dönem.
Onlar sayesinde bugün bu kadar rahatız. Bugün "sınırsız" gibi görünen kaynaklar, o dönemin mühendislerinin hayal bile edemeyeceği şeylerdi.
Peki 2050'de bugünün veri uzmanları nasıl hatırlanacak?
"2020'lerde yapay zeka modelleri gigabyte'larca RAM yiyordu, GPU'lar servet değerindeydi, ve her şey elle kodlanıyordu!" denecek belki...
Teknoloji değişir, ama veri yönetiminin özü aynı kalır: Değerli bilgiyi korumak, işlemek ve kullanılabilir hale getirmek.
🎥 Video İçeriklerimiz için YouTube'dan Takip Edin!
Bu konuları video formatında da açıklıyoruz. Daha fazla veri bilimi ve programlama içeriği için Verinin Mutfağı kanalımızı takip etmeyi unutmayın!
📺 Verinin Mutfağı YouTube Kanalı