본문 바로가기
  • GDG on campus Ewha Tech Blog

3-2기 스터디78

[인공지능 논문 읽기] 1주차 4월 4일 ~ 4월 10일 동안 각 스터디원이 연구하고 있거나 관심 있는 분야의 논문을 읽고, 4월 10일 자정까지 핵심을 위주로 요약하여 깃허브 레포에 issue로 남기는 첫 주를 마쳤습니다. 장서진 님은 2004년 machine learning 분야의 A Brief Introduction into Machine Learning을 요약하였습니다. 이은빈 님은 2016년 machine learning 분야의 Federated Learning: Strategies for Improving Communication Efficiency를 요약하였습니다. 김시정 님은 2020년 Computer Vision 분야의 YOLOv4: Optimal Speed and Accuracy of Object Detection을.. 2022. 4. 12.
[2주차] NLP Chapter2 - 자연어와 단어의 분산 표현 이 포스트는 "밑바닥부터 시작하는 딥러닝2 - 파이썬으로 직접 구현하며 배우는 순환 신경망과 자연어 처리 (한빛미디어, 사이토 고키 지음)" 책을 기반으로 공부해서 정리한 내용이다. Chapter2: 자연어와 단어의 분산 표현 2.1 자연어 처리란 자연어(natural language): 사람들이 평소에 쓰는 말 자연어 처리(natural language processing): 컴퓨터가 사람 말을 이해하도록 하는 것 자연어 처리 예시: 검색 엔진, 번역, 질의응답 시스템, 문장 자동 요약, 감정분석 등등 단어의 의미를 이해시키기 위한 방법으로는 시소러스를 활용한 기법, 통계 기반 기법, 추론 기반 기법 2.2 시소러스 유의어 집합 + 그래프 WordNet 시대 변화에 대응하기 어려움, 엄청난 인적 비용,.. 2022. 4. 11.
[기술 면접 대비] 2주차 - 알고리즘 CS 스터디 2주차 1. quick sort가 일어나는 과정과 시간복잡도(최선/최악)를 설명하세요 퀵정렬 : 분할 정복 알고리즘의 하나로, 리스트를 비균등하게 분할한다. 리스트 안의 한 요소를 선택하여 피벗(pivot)이라 한다. 피벗을 기준으로 피벗보다 작은 요소들은 모두 피벗의 왼쪽으로 옮겨지고, 피벗보다 큰 요소들은 모두 피벗의 오른쪽으로 옮겨진다. 피벗을 제외한 왼쪽 리스트와 오른쪽 리스트를 다시 정렬한다. 분할된 부분 리스트에 대하여 순환 호출을 이용하여 정렬을 반복한다. 부분 리스트들이 더 이상 분할이 불가능할 때까지 반복한다.과정 최선의 경우 T(n) = O(nlog2n) 최악의 경우 T(n) = O(n^2) 평균 T(n) = O(n^2) (출처 https://gmlwjd9405.github.. 2022. 4. 10.
[알고리즘 스터디] 3주차 활동 기록 GDCS 알고리즘 스터디 3주차(4/10) 활동 기록입니다. 3주차에는 큐를 이용한 간단한 문제인 카드2에 대한 풀이를 공유하였습니다. 문제 소개 문제 접근 카드 뭉치의 앞과 뒤만 접근한다는 점에서 큐를 떠올림 문제 풀이 로직 1번 카드가 맨 앞, N번 카드가 맨 뒤가 되는 큐를 하나 만든다. 최상단 카드는 그냥 pop하고 그 다음 최상단 카드는 pop하고 push한다. 큐의 size가 1이 될 때까지 2를 반복한다. 마지막 큐의 원소를 출력한다. 문제 풀이 #include #include using namespace std; int main() { queue cards; int N; int topCard; cin >> N; for(int i = 1; i 2022. 4. 10.
[1주차] 아침 스터디 활동 현황 지난 3월 21일(월)부터 아침 스터디 힘차게 시작했습니다! 스터디는 아침 8시부터 오후 12시까지 4시간동안 진행되며, 미리 시간표를 수합받아서 가능한 시간에 자율적으로 출석하고 있습니다. 참여하는 모든 멤버들은 매일 TIL을 기록하며 그 날 공부했던 내용을 정리하고 노션에 공유합니다. 앞으로 종강 때까지 이어지는 아침 공부 스터디 많은 응원 부탁드려요 :> 2022. 4. 8.
[1주차] Fundamentals We do a blitz review of the fundamentals of deep learning, and introduce the codebase we will be working on in labs for the remainder of the class. 1. Neural Networks - 우리 몸의 뉴런에서 영감을 받음 - 수상돌기에 들어가는 자극은 input으로 볼 수 있음 - b : bias. 선형 함수이기 때문에 y절편에 대한 offset(상쇄)이 필요. - activation function : threshold를 넘을 경우 활성화, 그렇지 못할 경우 비활성화하는 함수 - input layer-hidden layer 1, 2, 3 - output layer 로 연결 - each per.. 2022. 4. 8.