일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 영어영문학
- 정보시스템
- 확률기반자연어처리
- 경제용어
- 이공계를위한특허이해
- 공대생의산업공학공부
- 언어학
- 특허
- 공대생의전공공부
- 최적화기법
- 통계학
- 공대생의언어학공부
- 공대생의연구공부
- 공대생의경제공부
- 고전방법론
- 지적재산권
- 자연어처리
- 일일경제공부
- 인공지능
- 공대생의문과공부
- 품질경영
- 최적화문제
- 메타휴리스틱
- 정보시스템설계및분석
- 지식재산경영
- 언어적지식
- 컴퓨터공학
- 산업공학
- 통계적품질관리
- 국어국문학
- Today
- Total
목록컴퓨터공학 (44)
Fintecuriosity

2. 정수 (Integer: Z) 양의 정수, 0 , 음의 정수로 구성된 수 체계 0은 양의 정수나 음의 정수에 속하지 않는 중립 원소로 기호가 붙지 않습니다. 반면, 양의 정수는 앞에 + 기호가 붙거나 생략된 0보다 큰 수이고, 음의 정수는 - 기호가 붙는 0보다 작은 수입니다. ex) 절댓값 |28|을 갖는 정수를 모두 표현하라 절댓값이 |28|인 정수는 +28과 -28입니다. 긴 글 읽어주셔서 감사합니다.

1. 자연수 (Natural Number: N) 0보다 큰 양의 정수 n, b ∈ N 이고, b > 1, 0 ≤ ai < b 일 때 (b: 기수 / Cardinal Number , K: 자릿수 / positional number) ex) 자연수 58910을 기수와 자릿수를 이용하여 표현 58910 = 5 * 10^2 + 8 * 10^1 + 10^0 긴 글 읽어주셔서 감사합니다.

이번 글의 내용은 고려대학교 컴퓨터공학과 김승룡 교수님의 강의를 정리 및 참조 하였음을 먼저 밝힙니다. (다른 참조한 논문과 자료들은 아래에 기재되어 있습니다.) 혹시 제가 잘못 알고 있는 점이나 보완할 점 있다면 댓글로 알려주시면 감사하겠습니다. ◎ 합성곱 신경망 (Convolutional Neural Network) - CNN은 딥러닝에서 fundamental한 요소입니다. - CNN(합성곱 신경망)은 Tensor들로 이루어져 있습니다. - CNN 모델 중 유명한 모델은 VGG Net (ICLR 2016)과 Res Net (CVPR 2016, Best paper award)이 있습니다. A) VGG Net - Image는 tensor로 이루어져 있는데, VGG net은 224*224 차원* 3 cha..

이번 글의 내용은 고려대학교 컴퓨터공학과 김승룡 교수님의 강의를 정리 및 참조 하였음을 먼저 밝힙니다. (다른 참조한 논문과 자료들은 아래에 기재되어 있습니다.) 혹시 제가 잘못 알고 있는 점이나 보완할 점 있다면 댓글로 알려주시면 감사하겠습니다. 먼저 선형대수와 확률론에 대해서 배우기전에 저는 이런 생각을 했습니다. 그냥 코딩만 할 줄 알고 라이브러리만 잘 가져와서 필요한 기능만 잘쓰면 머신러닝 알고리즘을 잘쓸 수 있지 않을까? 굳이 수학을 다시 배우는 것이 시간적인 측면에서 효율적일까? 위 2가지 생각은 제 주관적 생각이므로 무시하셔도 무방합니다. 그러면 왜 머신러닝을 하는데 있어서 선형대수를 배워야 할까요? (아래에 https://opentutorials.org/에서 머신러닝에서 선형대수가 하는 역..

이번 글의 내용은 Mario Klingemann의 트위터 포스트를 번역 및 정리, 그리고 고려대학교 산업경영공학과 강필성 교수님의 강의를 참조하였음을 먼저 밝힙니다. (다른 참조한 논문은 아래에 기재되어 있습니다.) 이번 학기에 자연어 처리 관련 수업을 수강하면서 이론과 SOTA 모델들을 접할 수 있었습니다. 그 중에서 저의 관심을 끌었던 SOTA 모델은 Open AI에서 공개한 GPT-2 모델이였습니다. 간략하게 GPT-2 모델에 대해서 설명하면 기본적으로 ngram과 같은 언어모델입니다. 앞의 단어들이 주어지면 그 다음에 나올 단어를 예측합니다. 또한 GPT-2는 15억개 파라미터를 가진 대규모 번역기반 언어모델로, 800만개 텍스트의 데이터셋을 통해 학습하였습니다. 임의의 문장을 입력하면 맥락을 고..

이번 글의 내용은 고려대학교 컴퓨터공학과 김승룡 교수님의 강의를 정리 및 참조 하였음을 먼저 밝힙니다. (다른 참조한 논문과 자료들은 아래에 기재되어 있습니다.) 혹시 제가 잘못 알고 있는 점이나 보완할 점 있다면 댓글로 알려주시면 감사하겠습니다. 첫 패턴인식 수업에서는 첫 강의에 진행하는 OT를 기반으로 전반적인 개요와 class structure, course outlook 등을 말씀해 주셨습니다. 제가 처음에 떠올린 Pattern Recognition 개념은 주로 컴퓨터 비전에서 혹은 연관성있는 규칙과 패턴을 찾아내는 task가 있을 것이란 막연한 생각을 하였습니다. 하지만 대학원 입학 후에 여러가지 머신러닝, 딥러닝 등의 공부를 하며 통계적 기반의 Pattern Recognition도 있다는 사실..

여느 때와 다름없이 페이스북 타임라인을 빠르게 훑어보는 도중에 저의 눈길을 사로잡은 문구가 한개 있었습니다. 바로!! 제가 팔로우 하고 있는 뉴욕대학교(New York University)의 Yann LeCun 교수님의 글이 저의 눈길을 사로 잡았습니다. 일단 이 글의 핵심부터 말씀드리도록 하겠습니다. Yann LeCun 교수님이 이 글에서 제안하신 것은 바로 STEM (Science, Technology, Engineering, Mathematics) 분야를 STEMP(Science, Technology, Engineering, Mathematics, Philosophy)로 명명하자 였습니다. STEM이라는 단어가 생소하신 분들도 있을텐데 유럽이나 다른 서구 국가들은 제가 잘모르지만, 미국에서는 이공계..

먼저 본 포스트는 [그림으로 쉽게 이해하는 알고리즘]의 내용을 참조하여 제가 이해한 정보와 지식을 위주로 쓰여졌습니다. 우리는 보통 알고리즘이란 단어를 항상 많이 듣습니다. 그리고 이러한 알고리즘들이 현업에서 문제를 해결하는데 있어서 많이 사용한다는 것을 모두 알고 있을 것입니다. 이번 포스트는 알고리즘의 의미나 활용방안보다는 이 알고리즘의 유래에 대해서 알아보려고 합니다. 먼저 알고리즘이라는 용어는 9세기 경에 페르시아 수학자인 알 콰리즈미의 이름으로부터 유래되었습니다. 알 콰리즈미는 페르시아의 학자로서 수학, 천문학, 지리학등의 여러 학문 분야에서 두각을 나타내며 큰 업적을 남겼습니다. 특히 그는 인도의 숫자(아라비아 숫자)를 가지고 사칙연산 (덧셈, 뺄셈, 곱셈, 나눗헴)을 만들었고, 삼각함수와 대..

이번 글의 내용은 '파이썬으로 쉽게 풀어쓴 자료구조 (최영규 & 천인국 지음, 생능출판)'의 내용을 참조 및 정리 하였으며 저의 개인적인 인사이트 또한 추가된 점을 먼저 밝힙니다. 지난 자료구조 포스트에서는 선형적, 비선형적의 자료구조의 알아보았습니다. 일단 위의 사진을 참조하면 왼쪽과 오른쪽의 사진이 서로 다른 것을 알 수 있습니다. 왼쪽 사진은 C 수업을 수강하면서 들은 자료 사진입니다. 개념적 혼동이 올 수 있기에 책의 기준이 오른쪽이니, 포스트에서는 책의 기준으로 설명을 하도록 하겠습니다. 다양한 자료구조는 배열 구조와 연결된 구조 2가지 방법으로 표현될 수 있습니다. 많은 알고리즘들은 순환(Recursion)이나 반복 구조를 이용하여 구현을 할 수 있습니다. 반복과 달리 순환은 어떤 함수가 자기..

이번 글의 내용은 '기초부터 시작하는 강화학습 / 신경망 알고리즘(손민규 지음, 위키북스 DS 시리즈)'의 내용을 참조 및 정리 하였으며 저의 개인적인 인사이트 또한 추가된 점을 먼저 밝힙니다. 강화학습의 아이디어를 더 쉽게 설명을 하면 스키너 상자 실험의 예가 있습니다. 레버를 누르면 먹이가 나오는 상자 안에 비둘기를 넣은 후, 비둘기를 관찰하는 스키너 상자 실험을 한 스키너는 처음에는 레버와 먹이와의 관계를 모르던 비둘기가 지속적으로 나오는 먹이를 보면서 원리는 이해하지 못하였지만 레버를 누를 경우에 먹이가 계속 나온다는 의식이 강화되는 것을 파악하였습니다. 이 실험에서 강화란 어떤 지속적인 자극에 의한 반응 점차적으로 강해지거나 약해지는 것을 의미합니다. 스키너 상자 실험의 예는 주로 심리학에서 많..