Apache Kafka gestionat
Streaming de evenimente și cozi distribuite — cluster operat, fără să asamblezi ZooKeeper/KRaft și broker-e manual.
Apache Kafka ca serviciu gestionat
Apache Kafka este o platformă de streaming distribuit: produci și consumi evenimente în topic-uri partitionate, cu replicare și retenție configurabilă. Nu înlocuiește MySQL sau PostgreSQL — îl folosești în plus pentru integrare asincronă, audit, analytics în timp real și decuplare între servicii.
Când are sens Kafka
- Microservicii care trebuie să emită evenimente fără să cunoască toți consumatorii.
- Pipeline-uri unde aceleași date alimentează mai multe sisteme (search, DWH, notificări).
- Journal append-only pentru reconstruire stări sau replay în medii de test.
Ce gestionăm
- Cluster-ul de broker-e (și, în funcție de versiune, stack-ul KRaft sau componentele de coordonare necesare).
- Patch-uri de securitate și upgrade-uri de platformă în ferestre comunicate.
- Monitorizare de bază: throughput, lag consumatori, spațiu pe disc, sănătatea replicilor.
Concepte pe care le vei folosi
| Concept | Rol scurt |
|---|---|
| Topic | Canal logic de evenimente, împărțit în partiții pentru paralelism. |
| Producer / Consumer | Aplicațiile tale scriu și citesc prin API-uri client (Java, Go, Python, etc.). |
| Retenție | Cât timp se păstrează mesajele pe disc înainte de expirare. |
| Consumer group | Mai mulți consumatori împart partițiile fără duplicate la citire. |
Relația cu bazele SQL
Datele tranzacționale rămân de obicei în MySQL sau PostgreSQL; Kafka transportă evenimente de domeniu (comandă plasată, plată confirmată) către alte servicii. Pattern-ul outbox leagă cele două lumi în mod sigur.
Limitări de rețea și securitate
Expune topic-urile doar către rețeaua de încredere (VPC privat, ACL-uri) și folosește TLS și SASL unde platforma le oferă — detalii în documentația de securitate.
Înapoi la DBaaS · Contact pentru dimensionare cluster