T-Robotics
2019년 4월 13일 토요일
#44. KAIST에서 "대학 유죄"를 외치다: ART Lab의 도전
›
3월 22일 카이스트 전산학부에서 진행된 AI x Education 포럼의 발표 내용입니다. 대학은 과연 최적화된 교육을 제공하고 있을까요? 인공지능 기술을 배우려면 꼭 대학원에 가야 할까요? 이 영상을 보시면 제가 요즘 어떤 교육을 꿈꾸고 어떤...
댓글 2개:
2019년 3월 7일 목요일
#43. "정확도 98%의 인공지능"이 거짓인 이유
›
작년 저는 KIST에 계신 선배님으로부터 자문을 요청 받았습니다. 학생이 너무 좋은 결과를 가지고 왔는데, 분명 뭐가 잘못된 것 같은데 한번 봐달라는 것이었습니다. 학생은 뇌파를 가지고 환자가 어떤 운동상태인지를 머신러닝으로 판단하고 있었는데, 정확...
댓글 1개:
2019년 2월 13일 수요일
#42. 사진 속 글자 읽기, OCR (Optical Character Recognition)
›
카메라로 차량번호판을 인식하는 것은 이젠 너무나 당연한 기술이 되어 버렸죠?이렇게 사진 속에서 글자를 인식하는 기술을 OCR(optical character recognition)이라고 하는데요, 명함앱, 번역앱 등 정말 다양한 곳에서 쓰이는 기술이...
2019년 1월 28일 월요일
#40. 딥러닝을 위한 PC 사양 2019
›
안녕하세요. 괜히 공부가 안되니 '장비탓인가...' 싶은 생각이 드는 겨울입니다. 이럴 땐 질러야죠 ㅎㅎ 테리의 딥러닝토크에서 "딥러닝을 위한 하드웨어 구성"에 대해 이야기를 나눈 게 2년 전쯤이었는데요, 업데이트...
댓글 1개:
2018년 12월 1일 토요일
#39. 딥러닝 공부 가이드 2019 (무료 강의, 책)
›
테리가 추천하는 무료 딥러닝 공부자료들입니다. 딥러닝 토크 처음 시작할 때도 한번 추천한 바 있는데, 그게 벌써 2년 전이더라고요. 그 때 추천해드린 자료도 여전히 좋은 자료들인데요, 새로운 자료들도 좋은게 많아 2년 만에 2019년 버전으로 업데...
2018년 11월 8일 목요일
#38. 딥러닝의 실제문제 적용, 레이블이 전부다
›
연구든 비지니스든, 실제 데이터에 딥러닝을 적용하시는 분들이라면 아마 supervised learning을 먼저 고려하셔야 할텐데요, 최대한 데이터를 빨리 모은 후 여러 최신 딥러닝 모델들을 적용하고 싶으시겠죠. 그런데 저는 다시한번 데이터 그 자...
2018년 9월 29일 토요일
# 37. GIST 레이드랩에서 진행한 5분 잡썰
›
"저 딥러닝 강좌도 다 봤고 시중에 나온 책도 다 봤는데 그 다음엔 뭘 해야하죠? 뭔가 아는 것 같으면서도 딥러닝을 잘 모르고 있는 것 같아요." 많은 분들이 딥러닝 튜토리얼 레벨의 학습을 마친 후 무엇을 공부해야 하는지 질문을 ...
2018년 9월 20일 목요일
#36. 딥러닝의 실제적용, 튜토리얼과 무엇이 다른가?
›
"저 딥러닝 강좌도 다 봤고 시중에 나온 책도 다 봤는데 그 다음엔 뭘 해야하죠? 뭔가 아는 것 같으면서도 딥러닝을 잘 모르고 있는 것 같아요." 많은 분들이 딥러닝 튜토리얼 레벨의 학습을 마친 후 무엇을 공부해야 하는지 질문을 ...
2018년 5월 21일 월요일
#35. Deep Variational Bayes Filters (2017)
›
seqeunce나 time-series 데이터엔 RNN이나 LSTM이 참 효과적이죠? 하지만 그것만으로는 불만족스럽다고 하네요. "What's wrong with RNN?" 사실 비슷한 질문을 한적이 있었죠. "A...
2018년 4월 13일 금요일
#34. KL divergence, 순서가 중요할까요?
›
Kullback-Leibler Divergence (쿨벡-라이블러 다이버전스, 혹은 KL divergence) 많이 써보셨죠? 두개의 확률분포가 있을 때 둘 사이의 차이를 측정해주는 용도로 많이 쓰는데요, 아마 'KL Divergence는 거리...
댓글 1개:
2018년 3월 25일 일요일
#33. On Calibration of Modern Neural Networks
›
딥러닝으로 classification을 하면 "클래스 확률"이라 믿어지는 softmax 아웃풋이 나오죠? 하지만 아웃풋 노드값이 0.9가 나왔다고해서, 그것이 90% 확률로 맞을 가능성이 있다는 뜻은 아니랍니다. 그렇다면 0.9가 실...
2018년 2월 16일 금요일
#32. PCA의 이해
›
PCA라고 들어보셨나요? 보통 차원축소(dimensionality reduction)나 시각화(visualization), 그리고 특징 추출(feature extraction)을 할 때 많이 쓰는 방법인데요, 사실 PCA는 모든 dimensionali...
2018년 1월 28일 일요일
#31. Deep Learning: A Critical Appraisal
›
이번에 리뷰한 논문은 논문이라기보단 칼럼에 가까운 글입니다. 딥러닝과 현재 딥러닝 연구들의 한계점들에 대해 이야기한 "Deep learning: A critical appraisal"이란 논문인데요, "왜 딥러닝을 이용해야하...
2017년 10월 28일 토요일
#30. ROC 커브 (+ AUC, Precision, Recall)
›
Accuracy가 성능을 나타내는 전부는 아니란거 다들 알고 계시죠? 지난번엔 암환자 진단의 예를 통해 accuracy의 함정을 알아보고, precision과 recall에 대해서 설명을 했는데요, 이번에는 이와 함께 많이 쓰이는 개념 중 하나인 ...
2017년 9월 13일 수요일
#29. Tensorflow vs. PyTorch
›
딥러닝 공부를 시작하시는 분들의 큰 고민 중 하나가 짜장면이냐 짬뽕이냐가 아니라 Tensorflow냐 Pytorch냐일텐데요, 두가지를 가볍게 비교해 보았습니다. 결론은? 뭐든 그냥 손에 착 달라붙고 좀더 끌리는걸 하세요~ 저는 개인적으로 무엇을 선택...
2017년 9월 10일 일요일
#28. Understanding Black-box Predictions via Influence Functions
›
Tensorflow KR에서 진행하고 있는 논문읽기 모임 PR12에서 발표한 저의 네번째 발표입니다. 이번에는 ICML2017에서 베스트페이퍼상을 받은 "딥러닝의 결과를 어떻게 이해할 수 있는가"에 대한 논문을 리뷰해보았습니다. ...
2017년 8월 13일 일요일
#27. Cross entropy와 KL divergence
›
혹시 "classification을 위해 cross-entropy를 loss function으로 사용합니다" 라든지, "분포의 차이를 줄이기 위해 KL-divergence를 최소화시킵니다"와 같은 이야기를 들어보신...
2017년 8월 5일 토요일
#26. 정보량을 나타내는 엔트로피 (Entropy)
›
혹시 "classification을 위해 cross-entropy를 loss function으로 사용합니다" 라든지, "분포의 차이를 줄이기 위해 KL-divergence를 최소화시킵니다"와 같은 이야기를 들어보신...
2017년 7월 23일 일요일
#25. Learning with side information through modality hallucination (2016)
›
Tensorflow KR에서 진행하고 있는 논문읽기 모임 PR12에서 발표한 저의 세번째 발표입니다. 이번에는 "다양한 재료들을 어떻게 학습에 사용할 수 있을까"에 대한 내용을 발표하였습니다. 전형적인 supervised lear...
2017년 7월 8일 토요일
#24. Intra- / Inter-Class Variability
›
여러분들이 만약 classification(분류)을 머신러닝을 통해 하고싶다면, 그냥 데이터만 다 때려넣고 머신러닝을 돌리면 될까요? 아마도 데이터의 질에 따라 될 수도 있고, 안될 수도 있을텐데요, 그렇다면 데이터의 '질'이란 과연 무...
›
홈
웹 버전 보기