linked 기술 블로그에 따르면 kafka를 중앙 pub/sub 구조의 큐로 잘 사용해 피드 시스템을 처리하고 있다. 재미있는 것은 avro도 사용하고 있다는 점이다.
https://engineering.linkedin.com/blog/2016/04/kafka-ecosystem-at-linkedin
![](https://content.linkedin.com/content/dam/engineering/site-assets/images/blog/posts/2016/04/KafkaEcosystem1.jpg)
#uber
카프카 데이터 피드를 사용해 분당 수백 번의 승차 정보를 로그 데이터로 저장한 후, 해당 데이터를 Amazon S3에 대량 로드한다. 로컬 데이터 센터의 변경 데이터 로그를 스트리밍한다. json 데이터를 수집한 후 spark-hadoop(paquet)를 사용한다.
https://www.datanami.com/2015/10/05/how-uber-uses-spark-and-hadoop-to-optimize-customer-experience/
![](https://2s7gjr373w3x22jf92z99mgm5w-wpengine.netdna-ssl.com/wp-content/uploads/2015/10/Uber_2-1024x531.png)
하루 50억 세션을 실시간으로 처리하려면 카프카를 스트림 처리 인프라로 사용해야 한다.
https://blog.twitter.com/2015/handling-five-billion-sessions-a-day-in-real-time
![](https://g.twimg.com/blog/blog/image/answers_architecture_screenshot1_0.png)
![](https://g.twimg.com/blog/blog/image/answers_architecture_screenshot2_0.png)
![](https://g.twimg.com/blog/blog/image/answers_architecture_screenshot4.png)
# netflix
카프카는 실시간 모니터링 및 이벤트 처리를 위한 넷플릭스의 데이터 파이프 라인의 백본이다.
http://techblog.netflix.com/2013/12/announcing-suro-backbone-of-netflixs.html
![](http://3.bp.blogspot.com/-EivE0iibVE0/VdEqD3WvwUI/AAAAAAAABiY/4LBPSlw4Vos/s640/suro_architecture.png)
# spotify
https://www.meetup.com/ko-KR/stockholm-hug/events/121628932/?eventId=121628932
# yahoo
'kafka' 카테고리의 다른 글
[kafka] 복제(replication) (0) | 2017.03.17 |
---|---|
[kafka] 0.10.1.1 사용하면서 api 사용시 ProducerConfig와 ConsumerConfig를 잘 참조한다 (0) | 2017.03.16 |
[kafka] kafka 0.10.1.1 - producer / consumer 중요 내용 (0) | 2017.03.08 |
kafka 0.8과 kafka 0.10 의 Partitioner 변경 내용 (0) | 2017.03.02 |
[kafka] 0.10.1.1 설치, topic 생성/삭제/수정, 메시지 송신/발신 테스트 (2) | 2017.02.28 |