Martin 썸네일형 리스트형 호모데우스 호모 데우스국내도서저자 : 유발 하라리(Yuval Noah Harari) / 김명주역출판 : 김영사 2017.05.15상세보기 핵심 논점들은 리차드 도킨스의 , 수전 블랙모어의 의 논점과 흐름을 같이해서 모든 생명체들은 유전자, 즉 생물학적 유전자와 실체가 없는 유전자(생각의 파편들), 의 운반체에 불과하다는 주장들 입니다. 예를 들면, 강한 유전자가 살아남는게 아닌, 살아남았기 때문에 강한것. 생물학적 유전자의 예로는 성관계에서 쾌락을 느끼는 유전자가 살아남는데 유리했기 때문에 번식에 이점을 가져서 살아남게 되었다. 밈(실체가 없는 유전자)은 성공한 사람들의 생각 및 가치관들이 살아남아 대중들에게 전파되고 대중들이 성공하고자 하는 욕망에 이러한 을 모방하고 학습하여 또한 하나의 유전자처럼 유전되는 성질.. 더보기 [2018-06 / 4th] 이번 포스팅은 2018년 6월에 4주째에 대한 스스로에 대한 피드백입니다. 1. 활동 시간 이동시간이 7시 45분 언저리에서 더이상 움직이지 않고 있습니다. 어느정도 임계치에 다다른거 같은데, 더 확실한 변화가 필요한 것으로 보입니다. 2. 자투리 시간 첫번째 책(일취월장)을 마무리하고, 두번째 책도 거의 마무리되어가고있습니다(호모데우스). 다음 책 LIST를 뽑아놔야할 것 같습니다. 3. 활동시간동안 활동 내역을 micro하게 기록하기 6월 4번째 주는, 많이 긴장이 풀린거 같은 느낌이 많이 들었습니다. 28일, 목요일 부터 긴장감이 많이 풀리기 시작했습니다. - 하루에 대한 밸런스 무너짐 - 집중력 하락 - 집에서 진행한 스터디에 대한 집중력 극단적인 하락(비용절감이 답은 아닌것 같음) 4. 기타 피.. 더보기 [2018-6, 3th] 최근 여러가지 일도 있었고, 스스로 갈팡질팡하는 느낌에서 빠져나오지 못하다가 예전에 했던 자기관리를 다시 한번 해보기로 했습니다. 여기에 최근 신영준 박사님 및 고영성 작가님의 "완벽한 공부법", "일취월장"의 내용들에서 컨셉들을 많이 취해서 주기적으로 복기하면서 스스로에게 피드백을 주려고 합니다. 최근 느끼던 느낌들은 이런 것들이었습니다. 목표나 목적이 없이 내가 하는 일 자체가 무의미하다고 느낌당장 무엇을 해야할지 모르겠음당장 내일이나 다음달의 내 상황을 신뢰할 수 없어 불안함하고싶은 것은 많은데 시간은 부족하다고 느낌 이러한 것에 대해서 답을 찾고자 스스로에 대한 관리를 해보자 해서 도입한 것 장치는 다음과 같습니다. 장기적인 목표 및 목적 설정단기적이고 구체적인 목표 및 목적 설정수시로 측정하고 .. 더보기 [Measure Theory] 2강- Sigma-algebras 강의 자체가 한 강의당 10분 정도밖에 안되서 포스팅 자체를 짧게 진행하도록 하겠습니다. 1. Sigma-algebras measure theory의 제일 첫번째 정의는 Sigma-algebra라고 합니다. Sigma-algebra의 정의는 다음과 같습니다. 여기서 는 멱집합인데, 예를들어 일 때, 이 됩니다. 말 그대로 여집합에 닫혀있고, 셀수있는 합집합에 닫혀있어야된다는 이야기인데, 이에 대해서 강사가 몇가지 Remark를 해주는데, 아래와 같습니다. Sigma-algebra의 기본 정의는 non-empty니까 공집합이 아닌 set이고, 여기서 E(Event)는 이러한 set의 collection member니까 이는 당연히 A에 속해있고 E의 여집합도 마찬가지입니다. 여기서 어떠한 특정한 E와 E의.. 더보기 [Measure Theory] 1강- Banach-Tarski Paradox 요즘 Measure theory에 대해서 공부하고있습니다. 공부하고있는 영상은 링크(Probability Primer)에서 확인하실 수 있습니다. 포스팅은 영상을 보고 공부한 내용들을 자체적인 요약정도로만 진행할 예정입니다.1. Measure Theory 첫 강의에서는 현대 확률론은 Measure Theory 부터 시작을 하는데 Measure Theory가 무엇이고 어디에 좋고, 왜 해야하느냐? 대한 답을 Banach Tarski Paradox에 대해서 이야기하면서 Measure Theory의 중요성? 에 대해서 언급합니다. Banach Tarski Paradox Banach Tarski Paradox는 내용이 꽉 차있는 3차원의 Solid Ball을 finite한 조각들로 잘라서 이를 Rigid Tra.. 더보기 [Deeplearning] Yolov3: An Incremental Improvement 이번 포스팅은 Yolo v3 논문에 대해서 리뷰하도록 하겠습니다. 1. The Deal YOLO v3는 다른 사람들의 아이디어들을 차용한 내용입니다. 1-1. Bounding Box Prediction YOLO 9000에서의 Box coordinate prediction은 다음과 같은 방식으로 계산됩니다. 기존의 YOLO 9000은 Anchor Box와 Reference Center Point의 Shift값인 을 예측하고, 값을 구해서 L2 LOSS를 통해서 학습을 시켰는데, 이에 대한 컨셉을 변경해서 위의 기존 식을 inverse해서 다이렉트로 값들의 L1 LOSS값을 구하겠다고 합니다. 아마 아래와 같은 방식으로 기존의 BOX GT를 inverse해서 L1 LOSS를 구해서 학습을 진행한 것 같습니다.. 더보기 [Deeplearning] BinaryConnect: Training Deep Neural Networks with binary weights during propagations 이번 포스팅은 해용님과 진행한 BinaryConnect에 대한 논문을 리뷰하려고 합니다. 논문BinaryConnect: Training Deep Neural Networks with binary weights during propagations 구현체BinaryConnect 읽다보니까 BinaryConnect는 weights만 quantization을 수행하지만, Binarized Neural Network는 weight와 activation을 둘다 quantization하는 논문이고, 이전에 했던 포스팅인 Binarized Neural Network 논문 저자와 같아서 BinaryConnect 논문의 후속이 Binarized Neural Network라는 인상이 강하게 들었습니다. 덕분에 논문 읽는데 .. 더보기 [Deeplearning] YOLO9000: Better, Faster, Stronger 이번 포스팅은 YOLO9000: Better, Faster, Stronger (YOLO v2)에 대한 논문을 리뷰하도록 하겠습니다.전에 정리한 적이 있는데, 발표를 해야하는 상황이 왔었는데 죄다 까먹어서... 다시 정리하는 겸 복습해보려고 합니다.아래에는 YOLO 9000의 구현체와 이해를 더 도울 수 있는 참고 영상을 첨부합니다. 구현체(Implementation)Darknet 논문 리뷰 참고 영상PR-23 :: YOLO 9000: Better, Faster, Stronger1. Introduction Object Detection 데이터 셋들은 Classification 등의 데이터 셋과 비교하면 너무 제한적이다. 일반적으로 detection을 위한 dataset은 수십 ~ 수백개의 클래스를 포함한 .. 더보기 [Deeplearning] OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks Deeplearning기반 Object Detection System에 주류가되는 알고리즘들은 컨셉적으로 다 알고 있다고 생각했었는데, 막상 여러가지 이유로 논문을 다시 보게 되니까 제가 이해하고 있던 부분들이 많이 틀렸다는 것을 알게되었습니다. 그래서 이번 포스팅은 Object Detection 논문 중, OverFeat이라는 논문을 리뷰하도록 하겠습니다. 시작하기 전에, Object Detection 시스템에 대한 개략적인 이해는 알고있다는 가정을 하고 진행하도록 하겠습니다. 1. Classification1-1. Model Design and Training ImageNet 2012 데이터셋을 사용(1.2 million images and Class = 1,000 classes)고정된 입력데이터 사.. 더보기 [Deeplearning] Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 to -1 [1] 정말 오랜만에 블로그 포스팅을 진행하는 거 같습니다. 최근 서강대학교의 권해용님과 YOLO Darknet의 코드 리뷰를 진행하고 나서, Binary Neural Network에 대해서 공부하고 있습니다. 너무 오랫동안 기록 없이 스터디만 진행해왔고, 최근 너무 방대한 내용들이 기록되지 않은 상태로 남아있어서 이제 슬슬 기록을 진행해볼까 합니다. 이번 포스팅은 [Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 to -1:: https://arxiv.org/pdf/1602.02830.pdf] 에 대해서 논문 리뷰를 진행하도록 하겠습니다. Binary Neural Network의 구.. 더보기 이전 1 2 3 4 ··· 9 다음