https://github.com/deep-diver/machine-learning-yearning-korean-translation
Korean translation of machine learning yearning book by Andrew Ng.
https://github.com/deep-diver/machine-learning-yearning-korean-translation
andrew-ng book deep-learning deeplearning-ai machine-learning translation
Last synced: about 1 month ago
JSON representation
Korean translation of machine learning yearning book by Andrew Ng.
- Host: GitHub
- URL: https://github.com/deep-diver/machine-learning-yearning-korean-translation
- Owner: deep-diver
- Created: 2018-06-20T04:14:35.000Z (over 7 years ago)
- Default Branch: master
- Last Pushed: 2023-07-18T13:06:51.000Z (about 2 years ago)
- Last Synced: 2025-02-05T06:25:01.026Z (8 months ago)
- Topics: andrew-ng, book, deep-learning, deeplearning-ai, machine-learning, translation
- Size: 15.1 MB
- Stars: 375
- Watchers: 58
- Forks: 93
- Open Issues: 1
-
Metadata Files:
- Readme: README.md
Awesome Lists containing this project
README
# 'Machine Learning Yearning' 책의 한국어 번역
이 저장소는 앤드류 응(Andrew Ng.) 교수저 'Machine Learning Yearning'라는 책의 한국어 번역 내용을 포함한다.
[번역 대상이 된 원서의 링크](https://gallery.mailchimp.com/dc3a7ef4d750c0abfc19202a3/files/5dd91615-3b3f-4f5d-bbfb-4ebd8608d330/Ng_MLY01_13.pdf) 는 현재 집필중인 Draft 버전으로, 업데이트가 될 때 마다 해당 링크와 동기화 될 예정 입니다.
## Contents
[1 왜 머신러닝에 대한 전략을 알아야 하는가?](./chapters/1_Why_Machine_Learning_Strategy.md)
[2 이 책을 사용 하는 방법](./chapters/2_How_to_use_this_book_to_help_your_team.md)
[3 이 책을 읽기전 미리 알아야 하는 것과 사용되는 표기법](./chapters/3_Prerequisites_and_notation.md)
[4 규모가 머신러닝의 진보를 이끈다](./chapters/4_Scale_drives_machine_learning_progress.md)
### *개발용 데이터셋과 테스트용 데이터셋을 설정하는 것에 대하여*
[5 개발 데이터셋과 테스트 데이터셋](./chapters/5_Your_development_and_test_sets.md)
[6 개발/테스트 데이터셋은 같은 분포의 데이터로 구성되어야 한다](./chapters/6_Your_dev_and_test_sets_should_come_from_the_same_distribution.md)
[7 개발/테스트 데이터셋이 얼마나 커야 하는가?](./chapters/7_How_large_do_the_dev_test_sets_need_to_be.md)
[8 알고리즘 최적화를 위해서 단일-숫자 평가지표를 설정하는것](./chapters/8_Establish_a_single-number_evaluation_metric_for_your_team_to_optimize.md)
[9 최적화와 만족화라는 평가 지표에 대해서](./chapters/9_Optimizing_and_satisficing_metrics.md)
[10 개발 데이터셋과 평가지표로 개발 사이클 순환 속도를 빠르게](./chapters/10_Having_a_dev_set_and_metric_speeds_up_iterations.md)
[11 개발/테스트 데이터셋과 평가지표를 언제 바꿔야 하는가?](./chapters/11_When_to_change_dev_test_sets_and_metrics.md)
[12 요약: 개발 데이터셋과 테스트 데이터셋을 설정하는 것에 관하여](./chapters/12_Takeaways_Setting_up_development_and_test_sets.md)
### *기본적인 에러 분석에 대하여*
[13 빨리 시스템을 만들어 보고, 개발 사이클의 순환을 빠르게 하자](./chapters/13_Build_your_first_system_quickly_then_iterate.md)
[14 에러 분석: 아이디어에 대한 평가를 위해 개발 데이터셋을 살펴보는 것](./chapters/14_Error_analysis_Look_at_dev_set_examples_to_evaluate_ideas.md)
[15 에러 분석 중간에 여러가지 아이디어를 동시에 판단해 보는 것](./chapters/15_Evaluating_multiple_ideas_in_parallel_during_error_analysis.md)
[16 개발/테스트 데이터셋의 잘못 레이블링된 데이터를 정리하는 것](./chapters/16_Cleaning_up_mislabeled_dev_and_test_set_examples.md)
[17 큰 사이즈의 개발 데이터셋이 있는 경우, 두개의 부분집합으로 이를 나누고, 그 중 하나만 관찰하는 것](./chapters/17_If_you_have_a_large_dev_set_split_it_into_two_subsets_only_one_of_which_you_look_at.md)
[18 "눈알"과 "블랙박스" 개발데이터셋은 얼마나 커야 할까?](./chapters/18_How_big_should_the_Eyeball_and_Blackbox_dev_sets_be.md)
[19 요약: 기본적인 에러 분석에 관하여](./chapters/19_Takeaways_Basic_error_analysis.md)
### *편향과 분산에 대하여*
[20 편향과 분산: 에러를 일으키는 두 가지 큰 원인](./chapters/20_Bias_and_Variance_The_two_big_sources_of_error.md)
[21 편향과 분산의 예](./chapters/21_Examples_of_Bias_and_Variance.md)
[22 최적의 에러율과 비교하는 것](./chapters/22_Comparing_to_the_optimal_error_rate.md)
[23 편향과 분산 문제 해결방법에 대한 고심](./chapters/23_Addressing_Bias_and_Variance.md)
[24 편향 vs. 분산의 균형 대립](./chapters/24_Bias_vs_Variance_tradeoff.md)
[25 피할 수 있는 편향을 줄이기 위한 기법들](./chapters/25_Techniques_for_reducing_avoidable_bias.md)
[26 학습 데이터셋에 대한 에러 분석](./chapters/26_Error_analysis_on_the_training_set.md)
[27 분산치를 줄이기 위한 기법들](./chapters/27_Techniques_for_reducing_variance.md)
### *학습 곡선(Learning Curve)에 대하여*
[28 편향과 분산을 진단하는 것: 학습 곡선](./chapters/28_Diagnosing_bias_and_variance_Learning_curves.md)
[29 학습 데이터셋에 대한 에러의 곡선을 그리는 것](./chapters/29_Plotting_training_error.md)
[30 학습 곡선을 해석하는 것: 높은 편향치](./chapters/30_Interpreting_learning_curves_High_bias.md)
[31 학습 곡선을 해석하는 것: 그 외의 상황](./chapters/31_Interpreting_learning_curves_Other_cases.md)
[32 학습 곡선들을 그리는 것](./chapters/32_Plotting_learning_curves.md)
### *인간 수준의 성능과 비교하는 것에 대하여*
[33 왜 사람-수준의 성능과 비교해야 하는가?](./chapters/33_Why_we_compare_to_human-level_performance.md)
[34 어떻게 사람-수준의 성능을 정의할 것인가?](./chapters/34_How_to_define_human-level_performance.md)
[35 사람-수준의 성능을 넘어서는 것](./chapters/35_Surpassing_human-level_performance.md)
### *다른 데이터 분포에 대하여 트레이닝과 테스트하는 것에 대하여*
[36 다른 분포로 부터 구성되는 학습, 테스트 데이터셋을 언제 사용해야 하는가?](./chapters/36_When_you_should_train_and_test_on_different_distributions.md)
[37 모든 데이터를 사용해야하는지 어떻게 결정을 내려야 하는가?](./chapters/37_How_to_decide_whether_to_use_all_your_data.md)
[38 일관적이지 못한 데이터를 포함시키기 위한 결정을 어떻게 내려야 하는가?](./chapters/38_How_to_decide_whether_to_include_inconsistent_data.md)
[39 데이터에 가중치를 주는 것](./chapters/39_Weighting_data.md)
[40 학습 데이터셋에서 개발 데이터셋으로 일반화 하는 것](./chapters/40_Generalizing_from_the_training_set_to_the_dev_set.md)
[41 편향과 분산을 표현/해결하는 것](./chapters/41_Identifying_Bias_Variance_and_Data_Mismatch_Errors.md)
[42 데이터 미스매치를 표현/해결하는 것](./chapters/42_Addressing_data_mismatch.md)
[43 인공적인 데이터 합성에 대하여](./chapters/43_Artificial_data_synthesis.md)
### *추론 알고리즘을 디버깅 하는 것에 대하여*
[44 최적화 검증 테스트(The Optimization Verification test)](./chapters/44_The_Optimization_Verification_test.md)
[45 최적화 검증 테스트의 일반적인 형태](./chapters/45_General_form_of_Optimization_Verification_test.md)
[46 강화학습의 예](./chapters/46_Reinforcement_learning_example.md)
### *End-to-End 딥러닝에 대하여*
[47 End-to-End 학습의 등장](./chapters/47_The_rise_of_end_to_end_learning.md)
[48 End-to-End 학습의 다른 예](./chapters/48_More_end_to_end_learning_examples.md)
[49 End-to-End 학습의 장단점](./chapters/49_Pros_and_cons_of_end_to_end_learning.md)
[50 파이프라인의 컴포넌트를 선택하는 것: 데이터 수집의 가능성](./chapters/50_Choosing_pipeline_components_Data_availability.md)
[51 파이프라인의 컴포넌트를 선택하는 것: 작업의 간결성](./chapters/51_Choosing_pipeline_components_Task_simplicity.md)
[52 직접적으로 부유한(rich) 출력값을 학습하는 것](./chapters/52_Directly_learning_rich_outputs.md)
### *부분별로 수행하는 에러 분석*
[53 부분/컴포넌트별로 수행하는 에러 분석](./chapters/53_Error_analysis_by_parts.md)
[54 에러를 특정 컴포넌트의 잘못으로 분류하는것](./chapters/54_Attributing_error_to_one_part.md)
[55 에러를 특정 컴포넌트의 잘못으로 분류하는 일반적인 방법](./chapters/55_General_case_of_error_attribution.md)
[56 사람-수준의 성능과 각 컴포넌트를 비교하여 에러분석을 수행하는 것](./chapters/56_Error_analysis_by_parts_and_comparison_to_human_level_performance.md)
[57 ML 파이프라인의 결함을 발견하는 것](./chapters/57_Spotting_a_flawed_ML_pipeline.md)
### *결말*
[58 수퍼 히어로 팀을 만드는 것 - 팀 동료에게 이 책을 읽게 하자](./chapters/58_Building_a_superhero_team_Get_your_teammates_to_read_this.md)