Students are the heart and soul of GIST
클라우드 컴퓨팅 플랫폼 BE 개발 (신입/경력)
네이버 사내 개발자들이 사용하는 데이터플랫폼을 개발하고 운영할 소프트웨어 엔지니어를 모집합니다
네이버는 검색에 사용하기 위한 대용량 데이터를 다루는 데이터플랫폼인 Data Suite 가 있습니다.
Data Suite에서 제공하는 컴퓨팅 서비스인 Data Proc은 5천 대 이상으로 구성된 멀티테넌트 클러스터로 네이버 개발자 1000명 이상이 사용하는 플랫폼이며 MapReduce, Spark, Hive, Zeppelin을 활용한 데이터 분석과 Kafka, HBase, ElasticSearch 를 사용해서 빅데이터 관련 개발과 서비스 환경을 제공합니다.
저희 조직에서 하는 업무는 Deview 발표등의 공개된 자료를 통해서도 확인할 수 있습니다.
· 대용량 멀티테넌트 시큐어 하둡 클러스터를 시행착오 없이 만들기 (https://deview.kr/2019/schedule/323)
· 대규모 클러스터 모니터링 도전기: 모니터링, 어디까지 알아보고 오셨어요? Cluster level 부터 User level까지 (https://deview.kr/2019/schedule/318)
· C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터 (https://deview.kr/2018/schedule/231)
· 멀티테넌트 하둡 클러스터 운영 경험기 (https://deview.kr/2017/schedule/193)
· Apache Slider 를 이용한 멀티테넌트 하둡 클러스터 (https://deview.kr/2016/schedule#session/168)
· 네이버 어벤저스] 국내 최대 빅데이터, 이렇게 다룹니다 (https://news.naver.com/main/read.nhn?mode=LSD&mid=sec&sid1=105&oid=138&aid=0002071161)
· 네이버는 어떻게 빅데이터를 안전히 가공할까? (https://news.naver.com/main/read.nhn?mode=LSD&mid=sec&sid1=105&oid=092&aid=0002173609)
Data Suite의 기능을 더욱 강화하고 더 안정적인 클러스터 서비스를 제공하기 위해 저희와 함께 할 소프트웨어 엔지니어를 모집합니다.
[역할 및 필요역량]
· Hadoop 기반의 데이터플랫폼 개발/운영
· Hadoop eco 패키지 개발
· Elastic search, Logstash, Kafka, Docker를 활용한 로그 통합 플랫폼 개발
· Ansible과 Ambari를 이용한 데이터플랫폼 운영 자동화 툴 개발
· 데이터 플랫폼에서 수행되는 다양한 작업에 대한 문제 해결과 성능 향상을 위한 기술 제안
[자격요건]
· CS 관련 탄탄한 기본기를 바탕으로 습득이 빠르신 분
· Java / Python / C / C++ 중 1개 이상의 언어로 개발 가능
[채용하고 싶은 사람]
· 모르는 분야를 같이 공부하면서 같이 성장할 수 있는 분
· 새로운 기술을 접하는데 어려움이나 거부감이 없으신 분
· 동료를 배려하고 같이 성장하고자 하시는 분
· 다양한 직군의 다양한 사람과의 커뮤니케이션이 원활하신 분
· 끈기와 책임감이 있게 업무를 진행하실 수 있는 분