본문 바로가기
  • GDG on campus Ewha Tech Blog

3-2기 스터디78

[알고리즘 스터디] 7주차 활동 기록 GDCS 알고리즘 스터디 7주차(5/22) 활동 기록입니다. 7주차에는 아주 간단한 '사분면' 문제에 대한 풀이를 공유하였습니다. 문제 설명 2차원 좌표 상의 여러 점의 좌표 (x,y)가 주어졌을 때, 각 사분면과 축에 점이 몇 개 있는지 구하는 프로그램을 작성하시오. 입력 첫째 줄에 점의 개수 n (1 ≤ n ≤ 1000)이 주어진다. 다음 n개 줄에는 점의 좌표 (xi, yi)가 주어진다. (-106 ≤ xi, yi ≤ 106) 출력 각 사분면과 축에 점이 몇 개 있는지를 예제 출력과 같은 형식으로 출력한다. 예제 입력 5 0 0 0 1 1 1 3 -3 2 2 예제 출력 Q1: 2 Q2: 0 Q3: 0 Q4: 1 AXIS: 2 문제 접근 및 해결 방식 우선 각 사분면에 몇 개의 점이 포함되는지를 기록.. 2022. 6. 1.
[5주차] 튜토리얼 영상 #18-#22 5주차 플러터 스터디에서는 플러터 튜토리얼 영상을 #18에서 #22까지 학습하였습니다. (밑의 코드 언어는 모두 Dart입니다.) 영상 주소 : https://www.youtube.com/playlist?list=PL4cUxeGkcC9jLYyp2Aoh6hcWuxFDX6PBJ Flutter Tutorial for Beginners In this Flutter tutorial for Beginners series, I'll show you how to use Flutter (and Dart) to create Android and iOS apps from scratch. We'll learn all about... www.youtube.com #18. Custom Classes import 'package:.. 2022. 5. 31.
[5주차] ML Projects Lecture 5 | ML Projects Full Stack Deep Learning 5강을 듣고 정리한 글입니다. 영어 강의라서 해석이 모호한 부분은 강의 내용을 영어 그대로 인용했습니다. 5강에서는 머신러닝 프로젝트를 하기 위한 필요한 모든 것에 대해 다룹니다. 1. Why do ML projects fail? AI 프로젝트의 85%는 실패한다. ML 프로젝트는 대부분 “RESEARCH” 프로젝트이기 때문에 100%의 성공률을 목표로 해서는 안된다. ML 프로젝트는 실패하기 쉬운데, 이유는 다음과 같다. Many ML projects are technically infeasible or poorly scoped. 기술적으로 불가능하다. Many ML projects never leap product.. 2022. 5. 31.
[8주차] 딥러닝을 이용한 자연어처리 입문 Chap.16 Transformer 내용 및 사진 출처: WikiDocs 딥러닝을 이용한 자연어 처리 입문(https://wikidocs.net/book/2155) 1. 기존의 seq2seq 모델의 한계 - seq2seq 모델: encoder(입력 시퀀스를 하나의 벡터로 압축)-decoder 구조(압축된 벡터를 통해서 출력 시퀀스 생성) - 입력 시퀀스의 정보가 일부 손실 -> 해결책으로 attention 등장 - 이 때, attention을 RNN의 보정을 위한 용도가 아닌 attention만으로 encoder&decoder를 생성하면? 2. Transformer의 주요 하이퍼파라미터 - d_model: Transformer의 인코더와 디코더에서의 정해진 입력과 출력의 크기 의미, 임베딩 벡터의 차원, 각 인코더와 디코더가 다음 층의 인.. 2022. 5. 30.
[6주차] NLP Chapter 7. RNN을 사용한 문장 생성 - 8. 어텐션 이 포스트는 "밑바닥부터 시작하는 딥러닝2 - 파이썬으로 직접 구현하며 배우는 순환 신경망과 자연어 처리 (한빛미디어, 사이토 고키 지음)" 책을 기반으로 공부해서 정리한 내용이다. Chapter7: RNN을 사용한 문장 생성 7.1 언어 모델을 사용한 문장 생성 언어 모델: 지금까지 주어진 단어들에서 다음에 출현하는 단어의 확률분포를 출력 다음 단어를 생성하기 위해서는? - 결정적 방법: 확률이 가장 높은 단어를 선택 - 확률적 방법: 각 후보 단어의 확률에 맞게 선택 -> 매번 선택되는 단어가 달라질 수 있음 이렇게 학습된 단어의 정렬 패턴을 이용해(학습이 끝난 가중치를 통해) 새로운 문장을 생성하는 것이 가능 더 좋은 언어 모델로 더 자연스러운 문장을 생성 7.2 seq2seq 시계열 데이터 ex).. 2022. 5. 30.
[9주차] 딥러닝을 이용한 자연어처리 입문 Chap.17 BERT BERT 트랜스포머는 단어의 위치 정보를 얻기 위해서 각 단어의 임베딩 벡터에 위치 정보들을 더하여 모델의 입력으로 사용하는데, 이를 포지셔널 인코딩(positional encoding)이라고 합니다. 마스크드 언어 모델은 입력 텍스트의 단어 집합의 15%의 단어를 랜덤으로 마스킹(Masking)합니다. 그리고 인공 신경망에게 이렇게 마스킹 된 단어들을(Masked words) 예측하도록 합니다. 80%의 단어들은 [MASK]로 변경한다.Ex) The man went to the store → The man went to the [MASK] 10%의 단어들은 랜덤으로 단어가 변경된다.Ex) The man went to the store → The man went to the dog 10%의 단어들은 동일.. 2022. 5. 30.