본문 바로가기
728x90

분류 전체보기88

[백준] 11000 - 강의실 배정 Python https://www.acmicpc.net/problem/11000 11000번: 강의실 배정 첫 번째 줄에 N이 주어진다. (1 ≤ N ≤ 200,000) 이후 N개의 줄에 Si, Ti가 주어진다. (0 ≤ Si < Ti ≤ 109) www.acmicpc.net import heapq import sys input = sys.stdin.readline N = int(input()) course = list() answer = 1 for i in range(N): S, T = map(int, input().split()) course.append((S, T)) course.sort() classroom = list() heapq.heappush(classroom, course[0][1]) for i in.. 2023. 5. 22.
[백준] 2468 - 안전 영역 Python https://www.acmicpc.net/problem/2468 2468번: 안전 영역 재난방재청에서는 많은 비가 내리는 장마철에 대비해서 다음과 같은 일을 계획하고 있다. 먼저 어떤 지역의 높이 정보를 파악한다. 그 다음에 그 지역에 많은 비가 내렸을 때 물에 잠기지 않는 www.acmicpc.net import sys from collections import deque input = sys.stdin.readline dx = [-1, 1, 0, 0] dy = [0, 0, -1, 1] def bfs(start_x, start_y, visited): queue = deque() queue.append((start_x, start_y)) visited[start_x][start_y] = 1 while .. 2023. 5. 22.
LG CNS 면접 후기 - 2023년 상반기(ERP직무) 아무생각 없이 lg cns를 한번 지원해봤는데, 운좋게 코테까지 붙어서 면접을 보게 되었다. 사실 서류에서 탈락할거라고 생각했는데, 정말 말 그대로 운좋게 붙었던 거라 떨어져도 할말 없을거라고 생각했다. 그리고 역시 결과는 탈락ㅎㅎ 준비도 제대로 못하고 본거라서.. 후회는 없지만 너무 아쉽긴 했다.. 근데 코테를 잘 못봤는지, 코테 관련 질문만 하셨다. 신기한거는 코테 문제 풀이 방식에 대해서 여쭤보신게 아니라 "코테를 왜 본다고 생각해요?" 이런 질문..? 참고로 인공지능 관련 특허나 프로젝트 경험이 있고, 해당 직무가 AI 역량을 우대해준다고해서 그쪽 위주로 자소서도 작성하고, 면접 준비도 했다. 면접 복기 겸 물어봤던 내용을 정리하면.. (1) 자기소개 (2) 전공소개 부탁 (전공이름이 특이해서 물.. 2023. 5. 22.
Word2Vec: Efficient Estimation of Word Representations in Vector Space, Distributed Representations of Words and Phrases and their Compositionality Word2Vec REVIEW 구현 과제하다가 모르겠어서 정리할겸 내 맘대로 끄적끄적 거려보기:) Efficient Estimation of Word Representations in Vector Space We propose two novel model architectures for computing continuous vector representations of words from very large data sets. The quality of these representations is measured in a word similarity task, and the results are compared to the previously best per arxiv.org Distributed Repr.. 2022. 12. 1.
CS224n: Natural Language Processing with Deep Learning Lecture2-Neural Classifiers LECTURE2: Word Vectors, Word Senses, and Neural Classifiers WINTER 2021 참고 블로그: https://eda-ai-lab.tistory.com/122 Lecture 2: Word Vectors and Word Senses 이번 Lecture2에서는 지난Lecture1(https://eda-ai-lab.tistory.com/120)에 이어 word2vec에 대해 자세히 알아보도록 하겠습니다. 그리고 counting 기법과 GloVe model에 대해서 살펴보도록 하겠습니다. 대부분의 내용 eda-ai-lab.tistory.com https://blog.naver.com/jujbob/221147997064 스탠포드 자연어처리 강의 2화 (Word Vec.. 2022. 11. 30.
NLP review[1]-Tranfer learning [Transferm learning] Transfer learning은 특정 태스크를 학습한 모델을 다른 태스크 수행에 재사용하는 기법을 가리킨다. 이를 수행했을 때의 장점은 태스크를 처음붵 학습하는 것보다 모델의 학습 속도가 빨라지고, 새로운 태스크를 더 잘 수행하는 경향을 보인다는 것이다. 이때, 태스크1을 Upstream 태스크라고 부르고, 태스크2는 이와 대비된 개념으로 Downstream 태스크라고 부른다. 태스크1은 다음 단어 맞히기, 빈칸 채우기 등 대규모 말뭉치의 문맥을 이해하는 과제이며, 태스크2는 문서 분류, 개체명 인식 등 우리가 풀고자 하는 자연어 처리의 구체적인 문제들을 다룬다. [Upstream task] 대표적인 Upstream task 태스크 가운데 하나는 다음 단어 맞히기이.. 2022. 7. 27.
728x90