# linkedin

linked 기술 블로그에 따르면 kafka를 중앙 pub/sub 구조의 큐로 잘 사용해 피드 시스템을 처리하고 있다. 재미있는 것은 avro도 사용하고 있다는 점이다. 


https://engineering.linkedin.com/blog/2016/04/kafka-ecosystem-at-linkedin


이미지 : https://content.linkedin.com/content/dam/engineering/site-assets/images/blog/posts/2016/04/KafkaEcosystem1.jpg




#uber


카프카 데이터 피드를 사용해 분당 수백 번의 승차 정보를 로그 데이터로 저장한 후, 해당 데이터를 Amazon S3에 대량 로드한다. 로컬 데이터 센터의 변경 데이터 로그를 스트리밍한다. json 데이터를 수집한 후 spark-hadoop(paquet)를  사용한다.


https://www.datanami.com/2015/10/05/how-uber-uses-spark-and-hadoop-to-optimize-customer-experience/









#  twitter


하루 50억 세션을 실시간으로 처리하려면 카프카를 스트림 처리 인프라로 사용해야 한다.


https://blog.twitter.com/2015/handling-five-billion-sessions-a-day-in-real-time






# netflix


카프카는 실시간 모니터링 및 이벤트 처리를 위한 넷플릭스의 데이터 파이프 라인의 백본이다.


http://techblog.netflix.com/2013/12/announcing-suro-backbone-of-netflixs.html



# spotify


https://www.meetup.com/ko-KR/stockholm-hug/events/121628932/?eventId=121628932



# yahoo


https://yahooeng.tumblr.com/post/109994930921/kafka-yahoo

Posted by '김용환'
,