Latest

경희대 학생들을 위한 대화형 검색 엔진: KHUGPT

Engineering

경희대 학생들을 위한 대화형 검색 엔진: KHUGPT

KHUGPT, 어떤 서비스인가요? KHUGPT는 경희대학교 학생들을 위한 대화형 검색 엔진 서비스입니다. 예를 들어 사용자가 “올해 소프트웨어 관련 대회 정보 알려줘”, “올해 겨울에 모집하는 해외 연수 프로그램 있을까?”, “오늘 학식 알려줘” 등의 교내 정보와 관련된 질문을 하면 적절한 답변과 관련 링크를 제공해주는 서비스입니다. 따라서 학생들은 친구에게 물어보듯이 교내 정보를 쉽고 빠르게

By Yongwoo Song
2023년 상반기 리뷰

Life

2023년 상반기 리뷰

2023 상반기 회고 2022년 회고를 작성한게 엊그제 같은데, 어느덧 1학기 마무리를 앞두고 있습니다…! (2022년 리뷰 2편은 아직도 못썼…) 전역 후 오랜만에 복학한 만큼 정신 없이 한 학기를 보냈는데요, 한나름 뿌듯하고 뜻 깊은 일들을 많이 이룬 한 학기였던 것 같습니다! 다시 초심도 다잡을겸, 어떻게 한 학기를 보냈는지 회고와 함께 소개해볼게요 😊 함께

By Yongwoo Song
Canary deployment 파헤치기

Engineering

Canary deployment 파헤치기

이번 시간에는 인스턴스 배포 방법 중 하나인 카나리 (Canary) 배포에 대해 알아봅니다. 무중단 배포? 본격적으로 카나리 배포를 알아보기 전에 먼저 무중단 배포에 대해 살펴봅시다. 우리가 새로 업그레이드 된 버전의 서비스를 사용자에게 배포하려면 어떻게 해야할까요? 가장 간단한 방법은 기존 버전의 서버를 잠시 멈추고, 새로운 버전의 서비스로 업그레이드 하는 것입니다. 하지만 이

By Yongwoo Song
좋은 팀 문화 만들기

Life

좋은 팀 문화 만들기

이번 시간에는 제가 부스트캠프 AITech 4기를 진행하며, 함께했던 팀 지구코딩실에서 어떻게 협업을 했었는지 작성했던 글을 공유드리고자 합니다. 팀에 협업 문화를 어떻게 도입하면 좋을지 고민하시는 분들에게 도움이 되셨으면 좋겠습니다! 시작하며 이번 대회에서 지구코딩실의 주요 목표 중 하나는 “우리 함 제대로 된 협업을 해보자” 였습니다! 이를 위해 대회 전 일주일 간 지구코딩실이

By Yongwoo Song
Huggingface transformers 컨트리뷰션 후기

Engineering

Huggingface transformers 컨트리뷰션 후기

1. 개요 안녕하세요! 이번에 우연히 허깅페이스의 transformer 라이브러리에 contribution 하게 되었습니다. contribution이 처음이라 참 이런저런 우여곡절이 있었는데요. contribution의 과정을 소개 드려보고자 합니다 😊 2. 무엇을 컨트리뷰션 하신거죠? 컨트리뷰션 링크 사실 대단한 건 아니고, 사소한 주석 오타 수정에 기여했습니다! 이번에 허깅페이스 트랜스포머 분석 프로젝트 중에, ElectraTokenizer 의 Docstring이 Electra가 아닌 BERT로 잘못

By Yongwoo Song
2022년 회고 - 1편

Life

2022년 회고 - 1편

2022 회고 2023년 토끼 띠의 한해가 밝았습니다. 🐰 블로그를 처음 시작하고 2021년 회고를 작성했던게 엊그제 같은데, 벌써 2022 회고를 작성하게 되었습니다. 이번 한 해는 (드디어!) 군대도 전역하고, 네이버 부스트캠프 aitech도 참여하는 등 나름 굵직굵직한 일들이 많이 있었습니다. 특히 부스트캠프에서 좋은 동료들도 만나고, 값어치를 매길 수 없는 소중한 경험들, 지식들을 키울 수

By Yongwoo Song
Pythonic 코드를 위한 10가지 가이드

Engineering

Pythonic 코드를 위한 10가지 가이드

이번 시간에는 좋은 파이썬 코드를 위한 파이써닉한 코드를 위해 꼭 알아야 할 TOP 10에 대해 살펴봅니다. 1. PEP8 스타일 가이드 따르기 파이썬은 PEP8 (Python Enhancement Proposal)이라는 코드 스타일 가이드가 있습니다. 공백, 들여쓰기, 문법 등을 어떻게 하면 좋을지 상세하게 작성되어 있습니다. 그렇다고 이 모든 규칙들을 외울 필요는 없습니다. 바로 Black,

By Yongwoo Song
[논문 리뷰] DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

Research

[논문 리뷰] DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

이번 시간엔 BERT의 지식 증류 버전인 DistilBERT를 살펴봅니다. 최근 모델 사이즈가 커짐에 따라 성능도 비약적으로 향상하였지만, 컴퓨팅 자원이 많이 들고, 실제 서비스에 활용하기 어렵다는 단점도 생겼습니다. 해당 논문에서 지식 증류 기법 통해 이 문제를 어떻게 해결하였는지 확인해보세요 :) 논문은 링크에서 확인할 수 있습니다. Abstract * 최근 NLP 분야에서 큰 사이즈의 프리트레인 모델들을

By Yongwoo Song
[논문 리뷰] Fine-tune BERT for Extractive Summarization

Research

[논문 리뷰] Fine-tune BERT for Extractive Summarization

이번 시간에는 추출 요약을 수행하는 BERTSUM 모델에 대해 알아보겠습니다. 기존 BERT 구조에서 큰 변화없이 단순한 응용으로 추출 요약이 가능한 것이 인상적입니다. 논문은 링크에서 확인할 수 있습니다. Abstract * 연구팀은 BERTSUM이라는 추출 요약을 할 수 있는 BERT 모델을 제시 * 관련 요약 태스크에서 SOTA 성능을 달성 Introduction 문서 요약은 한 문서에서 중요한 정보를

By Yongwoo Song