Machine Learning Basics | What Is Machine Learning? | Introduction To Machine Learning

Questpond의 YouTube 채널에 오신 것을 환영합니다 오늘 우리는 배울 것입니다 머신 러닝의 기본 원리

작업을 시작하기 전에 매우 중요하고 귀엽고 감동적인 댓글을 통해 사람들이 우리 채널에 넣었습니다 구체적으로 우리는 Himal 선생님으로 시작할 것입니다 당신 같은 구독자 덕분에 우리는 그러한 비디오를 만들 수 있습니다 우리는 당신과 같은 독자들로 인해 존재합니다 반품 선물로 우리는 당신에게 평생 구독을 제공하고 있습니다 네, 잘 들었습니다 당신이 우리가 가르 칠 수있는 시간까지 우리와 연결되도록 무료

다음 의견은 Priya Bist에서 나옵니다 이 비디오는이 의견을 다루어야합니다 이 비디오에서는 머신 러닝의 기본 이해 기계 학습, 기계 학습 소개로 시작합니다 알고리즘 및 교육 데이터에 대해 이야기합니다 머신 러닝의 벡터에 대해 이야기 할 것입니다 머신 러닝의 모델은 무엇입니까? 기계 학습의 입력 및 출력을 정의하는 기능 및 레이블에 대해 이야기합니다 BOW, 즉 Bag of Words에 대해 이야기하겠습니다

우리가 무엇을 시작하자 기계 학습? 기계 학습 공부의 영역이다 우리가 원하는 곳 기계 인간처럼 생각하기 인간처럼 행동합니다 이 여행 기계에서 나오는 인간에게 또는 기계 만들기 인간처럼 생각하면 적어도 두 가지가 필요합니다 하나는 일종의 사고가 필요하다는 것입니다 인간은 생각할 수 있습니다 둘째 인간은 경험이 성숙 해지고 주변에서 배웁니다 학교에서 배우다 부모로부터 배우다 등등 어쨌든 우리는 기계를 넣어야합니다 기계가 생각하게 만드는 두 가지 두 번째는 우리는 학습으로 기계가 성숙 해지는 것을 볼 필요가 있습니다

기계의 사고력은 어떤 종류의 알고리즘 우리 알고리즘을 넣어 기계의 사고력을 만들어야합니다 상황에 따라 우리는 다른 종류의 알고리즘을 가질 수 있습니다 가장 먼저 기계 학습 알고리즘이 필요합니다 그런 다음이 알고리즘 훈련 데이터를 제공합니다 그들을 훈련시킬 것입니다 경험 부분은 알고리즘에 일종의 훈련 데이터를 제공함으로써 가져옵니다

하나는 알고리즘 사고입니다 그리고 훈련 데이터를 제공함으로써 우리가 할 수있는 경험 또는 성숙 된 힘 컴퓨터는 숫자 만 이해합니다 우리가 제공 할 때 숫자는 매우 쉽게 훈련됩니다 그러나 텍스트, 오디오, 비디오 및 이미지가 있다면 우리는 그것들을 변환해야합니다 형식의 종류 그리고 것들 번호 그 숫자는 벡터 머신 러닝 데이터가있는 경우 순수한 숫자는 매우 쉽습니다 그러나 우리가 어떤 종류의 텍스트를 가지고 있다면 오디오, 이미지 또는 어떤 종류의 문서 문서를 숫자로 변환해야하며 이것을 벡터라고합니다

벡터는 숫자의 모음입니다 우리는 알고리즘이 있습니다 우리는 알고리즘을 훈련하고 있습니다 그리고 그렇게함으로써 우리는 경험 알고리즘을 가지고 있습니다 이 경험 알고리즘을 모델이라고합니다 모델은 알고리즘입니다 어떤 종류의 경험으로 훈련 데이터에서 얻은 것입니다 모델은 가장 중요한 부분입니다 모든 머신 러닝 프로젝트

머신 러닝 프로젝트부터 시작하려면 가장 먼저 우리 마음에 와야한다 우리는 하루 종일 어떤 모델을 기대하고 있습니까? 모델 수단 훈련 된 알고리즘 어떤 종류의 훈련 데이터를 사용하여 기계를 훈련시킬 때 우리는 그 훈련 데이터를 기능 및 레이블 이러한 기능 및 레이블은 입력 및 출력입니다 기능 입력 라벨이 출력됩니다 기능이란 무엇입니까? 특징은 중요한 특성입니다 이것은 텍스트에서 추출되어 기계가 배우고 자하는 물건, 사물, 실체 또는 무엇이든 설명합니다 빨강, 둥글고 달콤하다고 말할 수 있습니다 이 레드, 라운드 및 스위트를 볼 때 기계에 알려줍니다 그것이 애플이라고 생각하십시오

원뿔 모양이 보이면 노랗고 나뭇결 그것이 옥수수라고 생각하십시오 노란색, 달콤하고 육즙이 보이면 망고라고 생각하십시오 피처는 입력이며 레이블은 기계가 해당 피처에 대해 생각하기를 원하는 것입니다 교육 데이터를 제공 할 때마다 기능 및 레이블 측면에서 제공해야합니다 논의했듯이 기능은 머신 러닝에서 매우 중요한 부분입니다

우리는 할 수있는 메커니즘이 필요합니다 교육 데이터에서 기능을 추출합니다 누군가는 텍스트 형식으로 교육 데이터를 제공합니다 오디오 형식 또는 비디오 형식 우리는 어떻게 든 그 텍스트에서 기능을 추출해야합니다 나중에 기능에 레이블을 지정해야하며 이는 기계에 대한 교육 입력이 될 것입니다 사용할 수있는 많은 시간이 테스트 된 메커니즘이 있습니다 기능을 추출합니다

사용 가능한 가장 간단한 메커니즘은 BOW-단어의 가방 단어의 가방 개념이다 또는 자유 텍스트에서 기능을 추출 할 수있는 프로세스 Bag of Words는 단순화 된 표현입니다 큰 텍스트 문서에 대한 단어 우리는 텍스트 두 줄 문장이 있습니다 오늘은 야채 요리하는 법을 배웁니다 야채를 요리하려면 먼저 씻어야합니다

이를 위해이 두 문장을 나타내는 중요한 단어를 추출 할 수 있습니다 오늘 추출했습니다 배우고 요리하십시오 야채와 세척 단어의 가방은 실제로 문법을 확인하지 않습니다 또는 단어의 위치를 ​​확인하십시오 중요한 단어를 추출하려고합니다 중 하나 과정은 그것은 중지 단어를 피하려고 시도합니다 우리는 그런 동사를 많이 가질 수 있습니다

문서의 표현을 단순화하지 못할 수도 있습니다 중지 단어를 적용 할 수 있습니다 우리가 우리의 의지, 방법, 방법을 추출하지 않는 것처럼 우리는 이것에 의해 정지 단어를 교차시킬 수 있습니다 우리는 그 두 개의 라이너 텍스트로부터 중요한 단어만을 추출 할 수 있습니다 Bag of Words의 일부 중 하나 우리가하는 일은 우리는 또한 아니오를 얻으려고 노력합니다

발생 이 문서에서는 요리가 두 번 발생했습니다 그래서 우리는 또한 아니오를 적어 두었습니다 발생 나중에 이 중요한 단어 모음은 숫자 즉 벡터로 변환 할 수 있습니다 기계에 공급 그런 다음이 기능에 라벨을 붙입니다 기계가 훈련받을 수 있도록 Bag of Words는 텍스트를 단순화 한 표현입니다

아니 발생 그러나 문법이나 단어가 처음에 오는 곳 또는 마지막에 오는 곳은 고려하지 않습니다 비디오의 끝을 알려줍니다이 비디오에서는 다음과 같은 중요한 기본 사항을 이해하려고했습니다 기계 학습, 알고리즘, 교육 데이터, 벡터, 모델, 기능, 레이블, BOW 등의 기본 사항 기계 학습의 다음 단계로 우리는 당신이 볼 것을 권장합니다 파이썬 비디오

화면에 우리는 번쩍였다 파이썬 1 시간의 튜토리얼 이 튜토리얼을 살펴보면 파이썬에 익숙해야합니다 대단히 감사합니다! 행복한 학습

From The Brain To AI (Neural Networks | What Is Deep Learning | Deep Learning Basics)

이 시리즈의 마지막 비디오에서 깊은 차이점을 논의 학습 및 기계 학습, 방법 및 방법 딥 러닝 분야는 공식적으로 태어나고 주류 인기 이것의 초점 비디오는 인공 신경에있을 것입니다 더 구체적으로-네트워크 구조

독수리, 전투기 동안 이 두 별개의 실체는 모두 수행 동일한 작업, 비행, 그들이 달성하는 방식 매우 다릅니다 전투기 매우 전문적이고 공학적입니다 매우 구체적인 기계 작업과 그 작업을 극도로 실행 잘 독수리, 생물 시스템 확실히 훨씬 더 복잡합니다 다양한 방법으로 가능 일반화 된 작업 이 비유는 차이점과 많은 유사점 우리의 두뇌와 딥 러닝 시스템

그들은 둘 다 임무를 수행 할 수 있지만 패턴 인식의 두뇌는 매우 복잡한 일반 시스템 다양한 작업을 수행 할 수 있습니다 딥 러닝 시스템은 설계되었지만 매우 구체적인 작업에서 탁월합니다 에 딥 러닝을 더 잘 이해하고 이 비유와 인라인 유지 비행, 기본으로 돌아가 봅시다 에 대한 한 시스템의 기본 원칙 이해하기가 훨씬 쉽다 더 높은 수준의 이해 그 응용 프로그램 및 기능 상기 시스템 우리가 비디오에서 논의했듯이 과거에 딥 러닝은 연결 분야, 부족 목표가있는 머신 러닝 뇌를 디지털 방식으로 재구성합니다

이제 우리가 반드시해야하는 두뇌를 디지털 방식으로 재구성 먼저 가장 간단한 디지털 재구성 뇌의 구성 요소, 뉴런 이것은 뉴런의 예술적 표현, 다극 뉴런이 정확해야합니다 있다 뉴런의 세 가지 주요 구성 요소 : 1) 소마, 이것은 '뇌'* 메타 *입니다 정보 처리 센터를 말하십시오 세포체로 구성된 뉴런의 그리고 핵 2) 축색 제, 이것은 길다 전달하는 뉴런의 꼬리 세포체와의 정보

3) 수상 돌기, 이것들은 뉴런에서 분기 팔 다른 뉴런에 연결하십시오 우리가 논의한대로 Neuromorphic에 대한 이전 비디오에서 계산에 따르면 뇌는 천억이 넘습니다 100 조 이상의 시냅스를 가진 뉴런 시냅스와 연결 다른 뉴런 우리가 생각한다면 극도로 감소하는 관점, 우리 두뇌를 하나로 간주 할 수 있습니다 거대한 신경망 점점 더 많은 것을 알지 못합니다! 따라서 왜 연결 주의자들은 시도에 너무 단단합니다 뇌를 재구성하고 긴급 속성이 등장합니다! 이제 물러서서 개별 뉴런, 이것은 우리 중 하나입니다 뉴런의 첫 사진 안으로 그려지다 19 세기 후반 스페인의 해부학자에 의해 산티아고 라몬이 카할 그는 소개 될 수있는 얼룩을 사용했습니다 조직에 현미경을 사용하여 그가 본 것을 그립니다

이제 당신은 여기에 무엇을 볼 우리가 방금 논의한 것은 세포체, 긴 꼬리와 수상 돌기 서로 이제이 그림을 뒤집어 봅시다 거꾸로하고 추상적으로 매핑 오른쪽에있는 뉴런의 구성 요소 측면 먼저 우리는 소마를 원으로 표시 한 다음 긴 줄이 오는 축삭 뉴런에서 마지막으로 여러 줄로 표현되는 수상 돌기 뉴런으로 연결됩니다 보시다시피 여기, 우리는 기본적인 방법을 목격하고 있습니다 딥 러닝 신경의 구조 89 00 : 02 : 52,670-> 00 : 02 : 56,360 그물이되었습니다! 에 대한 토론을 시작하려면 뉴런이 작동하는 방식으로 수상 돌기는 입력으로 간주 우리의 뉴런에 몸에서 수상 돌기 그들의 전기 활동을 찾으십시오 끝 그것이 다른 것에서 오는지 여부 뉴런, 감각 또는 다른 활동 그 신호를 세포체로 보내십시오

그만큼 그런 다음 soma는 이러한 신호를 받아 시작합니다 그들을 축적하고 특정 신호 임계 값, 축삭은 활성화, 시스템의 출력 본질적으로 매우 간단한 방법으로 뉴런의 정보 처리는 그냥 물건을 추가하십시오 그리고 그것을 바탕으로 하나 수상 돌기 활동을 축삭 활동의 수준 다시 말해, 더 많은 수상 돌기 더 자주 그들은 축삭이 얼마나 자주 활성화되었습니다 이제 우리는 기능의 추상적 이해 뉴런의 시스템에 더 추가합시다 신경망을 형성하기 시작합니다

같이 앞에서 언급 한 바와 같이 뉴런을 시냅스라고합니다 수상 돌기, 하나의 입력 뉴런은 축삭에 붙어 있습니다 다른 사람의 출력 라몬으로 돌아 가기 카잘의 첫 번째 뉴런 그림 당신은 그가 보고이 작은 것을 볼 수 있습니다 수상 돌기의 마비 여기가 다른 뉴런의 축색 돌기는 현재 뉴런의 수상 돌기 측면에서 우리의 추상적 인 그림의 우리는 이 연결을 원형으로 나타냅니다 마디 축색 돌기는 수상 돌기에 연결될 수 있습니다

강하게, 약하게 또는 그 사이의 어떤 것 지금, 우리는의 크기를 사용합니다 연결 노드를 나타내는 연결 강도, 연결 입력이 얼마나 활발한가 뉴런 연결은 출력 뉴런 수상 돌기 우리는 또한 이 연결 강도에 값을 할당하십시오 0과 1 사이, 1은 매우 강하고 0에 가까워지고 있습니다 앞으로 확장 될이 가치 비디오 참조 연결 무게로 보시다시피 우리는 더 많은 뉴런을 추가하기 시작합니다 많은 다른 입력으로 흥미로운 뉴런은 수상 돌기에 연결될 수 있습니다 각각 하나의 출력 뉴런 연결 강도가 다릅니다

이제 연결되지 않은 모든 것을 제거합시다 수상 돌기 및 또한 노드를 제거 우리는 연결을 나타내야했다 강도, 단순히 두께를 보여 무게를 나타내는 선의 그 연결 이제 뒤집어 가로로 다이어그램을 보면 현대 딥 러닝의 시작 신경망 아키텍처 이후 이 비디오의 시작, 우리는 우리에서 갔다 수조의 엄청나게 복잡한 뇌 연결과 미묘한 운영과 상호 연결성 신경망을 이해하기 간단 모델 우리 시스템은 여기 바로 그 모델입니다 그

뇌에서 신경으로 네트워크는 매우 축소 과정입니다 그리고 사이의 진정한 관계 생물학적 시스템과 신경 네트워크 은유적이고 영감을줍니다 우리의 두뇌, 제한된 이해 우리는 그들 중 엄청나게 복잡하다 수조 개의 연결과 많은 다른 유형의 뉴런 및 기타 병행하여 작동하지 않는 조직 그냥 같은 인접 레이어에 연결 신경망 주제에 다시 돌아와 우리가 사용하는 용어 이 네트워크를 설명하십시오, 그것은 사실입니다 그들은 여전히 ​​매우 유용합니다 큰 표현을 도출 마지막에 언급 한 데이터 양 이 시리즈의 비디오 그리고 지금 우리는 이것들의 구조가 어떻게 보 였는지 네트워크가 개발되었습니다 이 표현은 층

출력 노드를 생각하는 방법 그들이 노드의 합이라는 것입니다 그들을 강하게 활성화시키는 가장 강한 무게의 연결 예를 들어 5 개의 입력이 있다고 가정 해 봅시다 문자를 정의하는 노드 : A, B, C, D 그리고 E이 경우 출력 노드는 ACE에 의해 정의됩니다 여기 있습니다 저급에서 목격 표현, 개별 문자 높은 수준의 표현 단어를 포괄하고 계속 가면 에, 문장 등-이 단순한 예는 자연어의 기초이다 가공

편지를 넘어서 방법론은 모든 유형의 이미지의 픽셀 값에서 입력 오디오의 이미지 인식 연설을위한 연설의 빈도 더 복잡하고 추상적 인 인식 영양 정보와 같은 입력 의료 병력은 예를 들어 암의 가능성 지금 우리가 앞서 기 전에 더 높은 수준의 예측으로 확대 더 복잡한 초록의 능력 딥 러닝 시스템의 응용 이 다음 동영상 세트에서 시리즈, 우리는 포괄적 인 과정을 거칠 것입니다 예를 들어, 많은 새로운 것을 소개합니다 직관적 인 방법으로 용어와 개념 노드 네트워크의 이해를 돕기 위해 작업 그러나 이것이 당신이 가지고 있다는 것을 의미하지는 않습니다 더 배우기를 기다립니다! 원한다면 딥 러닝에 대해 더 배우고 실제로 현장에 대해 배우는 것을 의미합니다 이러한 인공 학습 알고리즘 뇌에서 영감을 얻어 기초 빌딩 블록 퍼셉트론, 멀티 레이어 확장 네트워크, 다른 유형의 네트워크 컨볼 루션 네트워크, 재발과 같은 네트워크와 훨씬 더 많은 다음 화려한

org는 당신이 갈 곳입니다! 안에 자동화를 통한 세계 알고리즘이 점차 대체 될 것입니다 더 많은 직업, 그것은 개인으로서 우리에게 달려 있습니다 우리의 뇌를 날카롭게 유지하고 여러 분야에 대한 창의적인 솔루션 문제와 화려한 플랫폼입니다 그렇게 할 수 있습니다 예를 들어 매일 매일 도전이 있습니다 다양한 코스를 다룰 수 있습니다 STEM 도메인 이러한 도전은 그들이 그리는 방식으로 제작 당신은 다음 새로운 것을 배울 수 있도록 직관적 인 개념 설명 특이점을 지원하려면 번영과 더 많은 것을 배우십시오 Brilliant, brilliant

org/로 이동하십시오 특이! 또한 처음 200 그 링크에가는 사람들은 20 %를 얻을 것입니다 연간 보험료 할인 혜택! 이 시점에서 비디오는 결론, 감사합니다 그것을 볼 시간을내어! 만약 너라면 그것을 즐겼다, 나를지지하는 것을 고려해라 Patreon 또는 YouTube 회원 자격 유지 이 도전이 커지고 있습니다! 우리를 확인 자세한 내용은 웹 사이트를 참조하십시오 더 많은 콘텐츠를 구독 한 입 크기에 대한 우리의 페이스 북 페이지 내용의 덩어리 안쿠 르였습니다 당신은 특이점을보고있다 번영과 곧 다시 ll겠습니다! [음악]

Supervised vs Unsupervised vs Reinforcement Learning | Machine Learning Basics

무슨 일이야? 머신 러닝 알고리즘이 데이터에서 학습하는 방법에 대해 이야기하겠습니다 작업 T가 있다고 가정 해 봅시다

프로그램이 필요한 회귀 문제를 생각해 봅시다 숫자 값을 예측합니다 입력 변수를 제공하며 숫자를 예측해야합니다 입력 변수가 무엇인지 모르는 경우 이전 비디오에서 해당 변수에 대해 이야기합니다 설명에 아래 링크를 넣었습니다

우리는이 과제 T를 가지고 있습니다 그리고 우리는 성과 측정치 P를 가지고 있습니다 성능 측정은 평균 절대 오차입니다이를 예로 들어 봅시다 이제 이것은 알고리즘의 성능을 측정하는 방법입니다

그래서, 여러분이 그것이 무엇인지 잘 알고 있다면, 지금은 중요하지 않습니다 다른 동영상의 실적 통계 그래서 우리에게는 과제가 있고 성과 측정이 있습니다 알고리즘은 성능이 다음과 같은 경우 경험을 통해 학습하고 있다고합니다 P로 측정 한 성능 측정치 인 T 과제를 해결하려고합니다 이 경험으로 향상됩니다

그리고 그것은 위대하다! 그러나이 경험은 무엇입니까? 글쎄, 그것은 학습 과정에서 그들이 가질 수있는 경험 일뿐입니다 이 중 네 가지 유형이 있습니다 : 감독, 감독되지 않음 이것들은 주요한 두 가지입니다 그리고 반 감독과 강화 학습

따라서 4 가지 학습 유형이 있습니다 우리가 이것에 들어가기 전에, 당신이 구독 버튼을 눌렀는지 확인하고 싶습니다 최신 비디오로 최신 상태를 유지할 수 있습니다 매주 새로운 비디오를 게시하여 기본 및 고급 기계 학습 주제를 다룰 것입니다 학습 유형으로 돌아가서 저는지도 학습부터 시작하겠습니다

지도 학습은 가장 일반적인 경우이므로 먼저 다루겠습니다 이러한 유형의 학습을 통해 알고리즘은 기능, 입력, 이는 레이블과 연관되며 출력입니다 예를 들어, 꽃 유형이있는 데이터 집합이있는 경우 입력은 꽃잎 길이 일 수 있습니다 그리고 꽃잎 너비는 그리고 출력은 꽃의 종류가 될 것입니다 난초인지, 데이지인지 또는 다른 것 따라서이 경우 원하는 출력이 이미 알려져 있고 레이블이 알려져 있으며 예측 이 라벨 중 하나로 구성됩니다 반면에 비지도 학습을 통해 레이블이없는 데이터를 처리하므로 적절한 구조가 없습니다

여기서 우리는 많은 기능을 가질 것이고 알고리즘은 주어진 것을 탐색 할 것입니다 거의 안내없이 출력 레이블없이 의미있는 정보를 추출하려고 시도합니다 이러한 유형의 알고리즘의 예는 클러스터링입니다 비슷한 예의 클러스터로 데이터 세트 제가 언급 한 세 번째 유형 인 semi-supervised learning은 기본적으로 감독의 사례입니다

이론적으로이 목록의 일부가되어서는 안됩니다 그러나 그것은 실제로 자신의 범주에있을만큼 충분히 다릅니다 반지도 학습은 생성 된 일부 레이블이있을 수있는지도 학습입니다

특정 기능을 명확하게하지는 않습니다 semi-supervised learning 알고리즘의 예는 생성 된 autoencoders입니다 레이블은 실제로 수정되지 않은 입력입니다 이제이 모든 유형에는 공통점이 있습니다 이는 레이블이 있고 일부는 고정 된 데이터 세트를 경험한다는 사실입니다

그러나 그들은 하나에 액세스 할 수 있습니다 그러나 네 번째이자 마지막 단계 인 강화 학습에는 고정 된 데이터 세트가 없습니다 이러한 유형의 학습은 잘 알려져 있지 않으며 여전히 연구 분야입니다 그러나 기본 알고리즘은 이러한 알고리즘이 환경과 상호 작용한다는 것입니다 시스템과 경험 사이에 피드백 루프가 있습니다

예를 들어 알고리즘은 실행되는 환경에 대한 정보를 수신 한 다음 학습합니다 출력을 최대화 할 동작을 선택합니다 게임에서와 같이 컴퓨터가 화면을보고 게임에서 점수를 최대화하거나 게임이 가지고있는 다른 측정 항목을 극대화 할 수 있습니다 자, 이것들은 머신 러닝 알고리즘의 종류입니다… 그리고 한 가지만 더 언급하겠습니다

감독 또는 비지도 또는 강화 학습에 대한 공식적인 정의는 없습니다 그리고 하나 또는 다른 하나에 의해 사용되는 구조는 다음과 같이 결합되고 설계 될 수 있습니다 모든 유형의 응용 분야에 적합합니다 이제 모든 과제는 우리가 만들고 싶은 것을 아는 것입니다

그래 이 비디오를 즐기 셨으면 좋겠습니다 다음 비디오에서 see겠습니다

Unsupervised Learning (What Is Machine Learning | Machine Learning Basics)

시리즈의 마지막 비디오에서 우리는 시작했습니다 오해를 해결하는 탐구에 인공 지능과 기계 학습, 감독 학습, 필수 기초 빌딩 블록 현대 분야의 이해 기계 학습

이 비디오의 초점 그 다음에 계속 될 것입니다 하나는 그만 두었고, 그래서 앉아서 긴장을 풀고 가입하십시오 다시 한 번 탐험을 통해 기계 학습의 분야! 빠른 요약하면 기계 학습 분야는 인위적인 웅장한 분야의 하위 집합 지능과 빅 데이터와 데이터 간의 교차점 과학 데이터 과학은 통계, 수학 등의 분야 – 밖으로 이해하는 목표로 및 구조 데이터 의 교차점 데이터 과학 및 인공 지능 특정 기계의 부분 집합 학습, 감독 학습이 수행됩니다

우리가 가지고있는 학습의 한 유형 우리의 데이터에 대한 입출력, 기타 단어, 레이블이 지정된 구조화 된 데이터 및 우리 모델을 극대화하기 위해 '훈련'해야한다 예측 정확도 감독 학습 다음으로 더 세분화되어 학습 모델의 두 가지 주요 모드, 회귀 및 분류 회귀 분석 연속 출력을 예측하기위한 것입니다 다른 말로하면, 출력은 라인 – 우리 모델의 가장 적합한 모델입니다

분류 다른 한편으로는 이산 출력, 즉 매핑 변수를 이산 카테고리에 입력하십시오 이것에 추가하려면 많은 분류 모델은 회귀 알고리즘을 구현합니다 게다가 본질적으로 감독 학습 대부분이 영화 롭게된다 패턴 통계 수학 인식 문제, re-branded as 그들이 있기 때문에 기계 학습 우리가 반복하는 방식으로 적용 그들을 통해, 다른 말로하면, 예측을 높이기위한 모델 정확성

보조 메모로서, 나는 매우 이전 비디오를 볼 것을 권장합니다 이 시리즈에서는 더 깊이 이해할 수 있습니다 감독 학습의 이해 우리는 상당히 집중적으로 걸었다 예 또한, 중요한 용어 우리가 이전 동영상 기계 학습에서, 변수는 지형지 물이라고 부릅니다

변수, 속성, 속성, 기능 – 그들은 모두 같은 것을 의미하지만, 우리의 용어를 지키는 술 업계 표준과 일치하여 향후 기능을 사용하십시오 돌아 오는 중 화제에,이 요점을 되풀이하면서, 이제 다음의 하위 집합으로 이동할 수 있습니다 기계 학습, 무 감독 학습 반면 감독자 학습은 다음과 같은 데이터에 가장 적합합니다 분류 및 구조화 된, 감독받지 않은 학습은 레이블이없는 데이터를위한 것입니다

구조화되지 않았습니다 즉, 우리는 다양한 입력 기능은 알지만 모르겠다 그 결과물은 무엇이 될 것인가 에서 어떤 경우에는 우리가 입력 기능이 의미합니다 감독되지 않은 학습은 가장 대표적인 학습이다

우리가 풀어야 할 현실 세계의 문제 주로 크로스 오버에서 일어난다 큰 데이터와 인공 지능의 분야 사이에서, 이 무 감독 알고리즘은 구조를 유도하는 임무가 주어진다 구조화되지 않은 데이터로부터 감독되지 않은 감독 학습처럼 학습도 추가로 2 개의 1 차 학습 모델 유형, 연관 및 클러스터링 에서 것과 같이, 회귀가있는 감독 학습 연속 데이터를 예측하고 이산 분류 무 감독 학습, 협회는 에 대한 지속적인 데이터 및 클러스터링 이산

우선 우리는 탐구 할 것입니다 클러스터링에 대해 자세히 알아보십시오 분류하는 동안 우리는 사전 정의 된 레이블을 사용하여 적합하게하려고합니다 새로운 데이터를 올바른 카테고리 기반으로 결정 경계, 클러스터링 이 라벨은보기에 의해 파생되어야합니다 많은 데이터 간의 관계 전철기

가장 잘 알려진 것 중 하나 클러스터링 알고리즘은 K- 수단 클러스터링 이 알고리즘 작업은 다음과 같습니다 결정 공간을 분석하여 n으로 표시된 데이터 포인트의 수 그들을 분리 된 수로 나눕니다 K로 표시되는 카테고리이 번호 K 사전 정의 될 수 있거나, 알고리즘은 가장 좋은 숫자를 결정하십시오

에러 함수의 사용 해보자 간단한 예, 데이터 포인트 시청 시간 기능으로 구성 다양한 동영상의 참여 결정할 수있는 방법을 결정하는 목표 그리고 그들이 추천받을 것인지 아닌지를 결정해야합니다 이 예제는 마지막 동영상 (현재 YouTube 데이터 제외) 레이블이없고 구조화되지 않았습니다 자, 먼저, 우리는 K의 양을 결정해야합니다

우리의 데이터는 클러스터로 나뉘어집니다 이것은 미리 정의 될 수 있지만, case 오류 함수를 사용합시다 에서 K- 평균 클러스터링, 제곱의 합 오류 함수는 종종 최적의 K 값 당신이 볼 수 있듯이 K를 증가 시키면 오류가 줄어 듭니다 그래프 팔꿈치로 알려진 특정 지점, K의 증가는 수익의 감소를 가져오고, 더 많은 컴퓨팅 능력과 과핑의 위험이 증가하고, 우리는 곧 논의 할 개념입니다

그만큼 우리 예제의 오차 플롯의 팔꿈치는 4이고, 그러므로 우리는 우리의 결정을 나눌 것입니다 공간을 4 개의 클러스터로 분할합니다 이것은 먼저 4 개의 중심을 추가하고 각각의 클러스터의 중심 지금 초기 중심 위치가 발견됩니다 고밀도의 영역을 선택함으로써 비슷한 특징 조건을 가진 포인트

초기 클러스터 지점이 선택한 다음 알고리즘이 다시 할당됩니다 데이터 점수 새로운 각각의 클러스터로 우리는 그 때 중심을 다시 한 번 업데이트하십시오 데이터 포인트를 해당 클러스터에 재 할당합니다 이 단계는 중심선이 움직이지 않거나 점 멈춤 클러스터를 전환합니다 우리 끝에서 우리는 이제 4 개의 분리 된 빨간색을 정의하지 않는 클러스터 추천 된 파란색으로 업로드 1 일, 1 주일 이내에 노란색 한 달 안에 보라색

이제이 레이블들 일단 클러스터가 정의되면 각 데이터 과학자들에 의해 주어진다 기계 학습 엔지니어 분석 결정 공간 이후의 결과 나누어졌다 그러나 보시다시피,이 감독되지 않은 학습 알고리즘은 직업과 파생 된 구조 인간을 허용 한 비정형 데이터 과학자들과 엔지니어들은 해독하고 데이터를 활용하십시오 지금 전에 계속, 이것이 단지 2 차원의 경우, 즉 2 개의 경우 기능 예 마지막으로 보았 듯이 보다 현실적인 비디오로 많은 대표적인 예 기능을 사용하면 우리가 더 높은쪽으로 들어갈 때 복잡한 3 차원 공간

우리는 이것이 어떻게 문제가 해결되면 문제가 해결됩니다 무 감독 학습 분야, 협회 이 개념을 이해하려면 조금 더 잘 생각해보십시오 클러스터링 문제는 우리가 시도하는 곳입니다 구매에 따라 고객 그룹화 행동, 반면 협회 문제 우리가보고 싶을 때입니다

제품 X를 구입 한 고객이 또한 제품 Y를 구매하는 경향이있다 단어, 지형지 물 간의 상관 관계 데이터 세트의 이것으로보기 다른 형식, 행렬, 여기서 각 열은 지형지 물을 지정하고 행은 각각 데이터 포인트에 해당합니다 예제와 같은 클러스터링 알고리즘 우리가 최근에 겪었던 목표는 행의 복잡성을 줄인다 다양한 유사한 데이터 포인트를 클러스터링 함께 앞으로 나아가십시오

다음과 같은 연관 알고리즘에 대한 주문 의미있는 연관성을 이끌어 내기위한 선례 지형지 물 사이에서 협회 '규칙', 열을 줄여야합니다 다른 단어 이 열의 복잡성 감소는 다음과 같습니다 차원 감소 그만큼 데이터의 차원은 고유하게 표현하는 데 필요한 기능 단일 데이터 지점 우리가 보았던 것처럼 이 시리즈의 이전 비디오 예제에는 두 가지 기능이 있습니다

그것을 2 차원으로 표현하면 우리가 필요로했던 3 개의 특징 3 치수 및 그래서 추세가 계속됩니다 모든 형태의 데이터를 변환해야합니다 그것이되기 전에 기능 세트로 분석,이 과정은 기능이라고합니다 추출과 많은 트레이드 오프가있다 이 선택에서 기능의 양 계속 지키고 싶다면 기능 집합 간단히 말해서, 낮은 차원 성, 당신은 할 수없는 위험을 감수해야합니다

모든 데이터 포인트를 고유하게 식별 데이터 집합에서 알고리즘을 의미합니다 선택의 여지가 파생 될 수 없다 데이터로부터의 패턴, 다시 말하면, underfitting 반면에, 기능 세트가 복잡하고 높습니다 차원 적이면, 우리는 차원의 저주를 불렀다

이 더 많은 측정 기준이 추가되는 시점입니다 데이터 세트가되면 데이터 세트가됩니다 의미있는 것을 찾기에는 너무 희박하다 패턴 즉, 추가 측정 기준에 의해 데이터가 생성되었습니다

의사 결정 공간에 너무 퍼져 나갔다 또한 발생하는 또 다른 문제 높은 차원에서부터, 데이터 세트가 너무 강하게되어 새로운 데이터를 적용하십시오 의사 결정을 분석하는 데 사용되는 알고리즘 공간은 상관 관계를 만들었고 해당 기능 간의 연결 실제로 본질적인 의미가 없습니다 드문 드문 한 데이터가 큰 이유입니다 전문가 시스템이 실패한 이유 약속 된 결과를 실현시키다 높은 차원 성은 왜 낮은 것보다는 해결하기가 훨씬 어려운 문제, 따라서 우리를 우리의 출발점으로 되돌려 놓습니다

점, 차원의 필요성 협회 주문 감소 추출 할 수있는 알고리즘 의미있는 상관 관계 에 대한 인기 기술의 상승 차원 감소는 매니 폴드로 불리는 것 가설 매니 폴드 가설 높은 차원의 데이터 실제로 낮은 차원에 놓여있다 높은 차원에 매입 된 매니 폴드 평신도의 용어로 다양성을 가진 공간 어떤 모양의 표면이든 간단히 놓고, 매니 폴드 가설은 높은 차원의 데이터를 표현할 수있다

저 차원 데이터의 모양으로 변환 후 생성 적용된 이러한 변환 데이터 겪어야하는 것은 동형이 틀림 없다 데이터가 있어야한다고 역으로 역변환하여 원래의 자기와 파괴되지 않은 변환 이 낮은 차원 원래 데이터 집합의 표현 그런 다음 축소 된 기능 집합을 포함합니다 당면한 문제를 대표하는 데 필요한 여전히 의미있는 결과를 산출하고 협회, 그리고 여러 다양한 학습을위한 알고리즘 이 낮은 차원 모양을 파생하십시오

에 두 가지를 나열하십시오 : 1) 교장 성분 Snalysis, PCA, 선형 매니 폴드, 즉 비행기 그리고, 2) Isomaps, 비선형 매니 폴드의 의미 모든 곡면 이 과정은 차원 감소, 특징 선택 및 추출은 전체 기계 학습의 하위 필드, 피쳐 엔지니어링 (feature engineering) 및 많은 것을 만질 수있는 무언가 다가오는이 채널에서 더 많이 깊은 학습 시리즈 이제 나는 한 번하고 싶다 다시 한번 강조하자면, 시간과 설명이 많은 일반화 이 동영상에서 목표와 함께 만들었습니다

현실에서 매우 복잡한 주제를 간소화하다 중복되는 부분이 많습니다 에 명시된 바와 같이 이 모든 것의 출발점에 대한 면책 ​​조항 인공 지능 동영상, 여기 내 목표는 핵심 개념에 대한 소개 개요, 그 후에 당신은 당신을 만족시킬 수 있습니다 다른 것을 보면서 더 많은 것을 배우는 호기심 이 플랫폼의 놀라운 제작자 및 웹상의 자료 그러한 자원 하나 Brilliant를 사용하고 적극 권장합니다

만약 너는 기계에 관하여 더를 배우고 싶 는다 배우는 것은 실제로 어떻게 배우는지 이러한 알고리즘은 감독자에서 작동합니다 회귀와 같은 방법론 분류, 감독되지 않은 학습 Brilliantorg는 그 이상입니다 너가 갈거야! 예를 들어, 기계 학습 과정 우리가 가지고있는 많은 개념들을 통해 이 과거 동영상에서 논의되었습니다 이제 뭐 나는이 주제가 코스는 처음에는 직관적 인 설명이 주어지면 당신은 관련 문제를 겪습니다

만약 문제가 잘못되면 직관적으로 보게됩니다 네가 어디로 잘못 갔는지에 대한 설명 그 결함을 바로 잡는 방법 나의 주요 목표 이 채널은 다양한 기술에 대해 교육한다 변화시키는 혁신 세상에,하지만 더 높은 수준에서 그렇게하는 것 이보다 앞서 나아갈 필요가있다 동영상을보고 실제로 수학과 과학은 내가 토론하는 개념들

Brilliant는 이것을한다 수학과 과학 학습을함으로써 호기심을 자극하고 호기심을 자극한다 사이의 상호 연관성을 보여주는 다양한 주제의 다양성! 또한 오프라인 모드를 사용 중입니다 배우실 수있는 Brilliant의 모바일 앱 가다 다음 중 하나를 다운로드 할 수있는 기능이 있습니다 대화 형 과정

지원 Singularity 번영과 더 많은 것을 배우십시오 Brilliant에 대해 Brilliantorg에 방문하십시오 / singularity 및 무료 가입, 가입 한 첫 200 명 연간 보험료에서 20 % 할인됩니다 신청! 이 시점에서 동영상에는 결론에 오니, 고맙습니다 그것을 볼 시간을내어 주셔서 감사합니다! 만약 너라면 그것을 지원하는 것을 즐겼다

계속 유지할 Patreon 또는 YouTube 회원 이 채널 성장! 우리의 자세한 정보는 웹 사이트를 참조하십시오 더 많은 콘텐츠를 구독하고 좋아요 한입 크기의 페이스 북 페이지 콘텐츠 덩어리 이것은 Ankur입니다, 너는 Singularity Prosperity를 ​​보았다 곧 다시 보자! [음악]

MIT Deep Learning Basics: Introduction and Overview

2019 년 모두를 환영합니다 여기있는 모든 사람들을 만나서 정말 반가워요

추위에 그것을하십시오 이는자가 운전 자동차를위한 6S094 딥 학습입니다 그것은 일련의 과정의 일부입니다 우리가이 달 동안 뛰고있는 깊은 학습에 당신이 모든 내용을 얻을 수있는 웹 사이트 비디오, 강의 및 코드는 고맙습니다 동영상과 슬라이드는 여기에서 사용할 수 있습니다

github 저장소와 함께 그 과정에 수반되는 것입니다 등록 된 학생의 과제는 그 주에 나중에 이메일을 보냈습니다 그리고 언제든지 저희에게 연락하실 수 있습니다 질문, 우려 사항, 의견 인간 중심의 인공 지능, mitedu

기본 사항부터 살펴 보겠습니다 기본 사항 한 슬라이드에서 요약하면, 깊은 학습이란 무엇입니까? 데이터에서 유용한 패턴을 추출하는 방법입니다 자동화 된 방식으로 인간의 노력이 거의 필요 없다 가능한 한 자동화시켜야합니다

방법? 우리가 이야기 할 기본 요소 많은 것은 신경 네트워크의 최적화입니다 우리가 코드를 제공 할 실용적인 성격 등등 라이브러리에 액세스 할 수있게 해주는 라이브러리 가장 강력한 것들을 쉽게 할 수 있습니다 Python, TensorFlow & friends를 사용하여 심층적 인 학습을합니다 항상 힘든 부분 인공 지능을 전반적으로 학습하는 기계 좋은 질문을하고 좋은 데이터를 얻고 있습니다

많은 경우 뉴스의 흥미 진진한면을 다루고 있습니다 출판되는 것에 대한 많은 흥미로운 측면 그리고 아카이브에서 권위있는 컨퍼런스, 블로그 포스트에서 방법론입니다 어려운 부분은 현실 세계의 문제를 해결하는 방법론, 매혹적인 재미있는 문제를 해결할 수 있습니다 그리고 그것은 데이터, 그 데이터의 올바른 질문을 요구하는, 그 데이터 정리하기 표시 할 수있는 데이터의 측면을 선택하는 라벨링 당신이 묻는 질문에 대한 대답 그렇다면 왜 지난 10 년 동안 이러한 돌파구가 있었습니까? 신경 네트워크의 응용, 신경 네트워크의 아이디어? 무슨 일이 일어난? 무엇이 바뀌 었습니까? 그들은 1940 년대부터 주변에있어 왔습니다

그리고 아이디어는 심지어 전에 예식되었습니다 정보의 디지털화, 데이터 전 세계에 분산 된 방식으로 데이터에 쉽게 액세스 할 수있는 기능 모든 종류의 문제는 이제 디지털 형식으로 바뀌 었습니다 학습 알고리즘을 통해 액세스 할 수 있습니다

하드웨어; CPU와 GPU의 무어의 법칙을 모두 계산 ASIC, Google의 TPU 시스템, 효율적으로 사용할 수있는 하드웨어 이러한 알고리즘의 효과적인 대규모 실행 커뮤니티; 여기 사람들, 전세계 사람들 함께 일할 수 있고, 서로 이야기하고, 기계 학습 뒤에 흥분의 불을 피우는 것 github 이상 금형 제작; 우리는 TensorFlow에 대해 이야기 할 것입니다 PyTorch와 그 중간의 모든 것 아이디어가있는 사람을 가능하게하는 적은 시간과 적은 시간에 솔루션에 도달 할 수 있습니다 고수준의 추상화 수준 사람들에게 권한 부여하기 점점 더 적은 시간에 문제를 해결한다

점점 더 적은 지식으로, 아이디어와 데이터가 중심점이되는 곳, 아이디어에서 해결책으로 당신을 끌어들이는 노력이 아닙니다 그리고 흥미로운 진보가 많이있었습니다 일부는 얼굴 인식에서부터 장면 이해, 이미지 분류, 연설, 텍스트, 자연 언어 처리, 필사본, 의료 응용 분야의 번역 및 의료 진단 그리고 자동차 자율 주행 차량의 다양한 인식을 해결할 수있다 주행 가능 구역, 차선 감지, 물체 감지, 디지털 지원, 집에있는 것들을 넘어 귀하의 휴대 전화에있는 것들

Netflix의 광고, 추천 시스템으로 소셜, Facebook을 검색 할 수 있습니다 그리고 물론 게임을하는 데있어 깊이있는 학습을 통한 성공의 학습, 보드 게임부터 스타 크래프트와 도타까지 한 걸음 물러서십시오 깊은 학습은 일련의 도구 이상입니다 실용적인 문제를 해결합니다

파멜라 맥코 덕크 (Pamela McCorduck) "AI는 신을 위조하려는 고대의 소원으로 시작되었다" 우리의 역사를 통틀어서 우리 문명, 인간 문명 전반에 걸쳐 우리는 에코 생성에 대한 꿈을 꾸었습니다 기계의 우리 마음 속에있는 것은 무엇이든간에 그리고 1800 년대 대중 문화에서 살아있는 유기체를 창조하십시오 Ex Machina와 Frankenstein이 비전은 꿈입니다

지능을 이해하고 지성을 창조한다는 것은 우리 모두를 사로 잡았습니다 그리고 깊은 학습이 핵심입니다 의 측면이 있기 때문에, 학습 측면 가능한 무엇이 우리의 상상력을 사로 잡습니다 주어진 데이터 및 방법론 학습 배우는 법을 배우고 그걸로 우리를 데려 갈 수있는 범위를 넘어서 그리고 여기 시각화 된 것은 뉴런의 단지 3 %입니다 그리고 우리 뇌의 시냅스 중 백만 분의 일

우리의 마음 속에있는이 놀라운 구조 그리고 그것의 유일한 메아리가있다 우리가 만들 수있는 우리의 인공 신경망에서 그 작은 그림자 그럼에도 불구하고 그러한 울림은 우리에게 고무적입니다 이 푸른 창에 신경 네트워크의 역사 꽤 오래 전에 시작되었습니다 여름과 겨울, 흥분과 비관적 인시기가있다

40 대에서 신경망 및 그러한 신경 네트워크의 구현은 50 년대의 퍼셉트론이다 backpropagation의 아이디어로, 제한된 볼츠만 기계, 반복적 인 신경 네트워크 70 년대와 80 년대; 길쌈 신경 네트워크 그리고 MNIST 데이터 세트는 여과가 시작되는 데이터 세트 LSTM, 90 년대 양방향 RNN; 신경망의 브랜드화와 재 탄생 딥 학습의 깃발 아래 2006 년 Deep Belief Nets; ImageNet의 탄생, 데이터 세트 깊은 학습의 가능성은 세계에 가져올 수있다 2009 년에 최근 몇 년 동안 처음으로 설명되었습니다 그리고 AlexNet은 ImageNet이 정확히 수행 한 네트워크입니다 중퇴와 같은 몇 가지 아이디어와 개선 매년 신경 네트워크 신경 네트워크의 성능을 향상시킵니다

2014 년 GAN의 아이디어 인 Yann LeCun이 지난 20 년간의 가장 흥미 진진한 아이디어, Generative Adversarial Networks, 거의 감독을 할 수없는 능력 데이터를 생성하고, 표현을 표현한 후에 아이디어를 생성합니다 높은 수준의 이해에서 추출 된 내용의 추상화 데이터에서 새로운 샘플을 생성 할 수 있어야합니다 창조 할 수있는 아이디어를 창조하십시오 외우면서 정말로 흥미 롭습니다 2014 년 DeepFace를 적용한면에서 얼굴 인식 능력

컴퓨터 비전 앞에서 많은 돌파구가있었습니다 그것은 그들 중 하나입니다 세계는 영감을 받아 2016 년에 매료되었습니다 AlphaGo에서, 17 세에서 AlphaZero로 작고 적은 노력으로 덜컥 거리다 Go에서 세계 최고의 선수

대부분의 역사에 대한 문제 인공 지능은 해결할 수 없다고 생각했습니다 그리고 캡슐 네트워크와 함께 그리고 올해는 2018 년의 새로운 아이디어 자연어 처리의 해였습니다 흥미로운 돌파구가 많이 생겼다 구글 버트와 우리가 이야기 할 다른 것들 언어를 이해하고 스피치를 이해하는 능력에 대한 획기적인 발전 그리고 모든 것을 둘러싸고 세워진 세대를 포함한 모든 것 그리고 툴링의 병행이 있습니다

60 년대부터 퍼셉트론으로 시작 및 배선도 올해는 PyTorch 10과 TensorFlow 20으로 끝납니다 이것들은 정말로 굳건하고 흥미 진진하며 강력한 도구의 생태계입니다

매우 적은 노력으로 많은 일을 할 수있게 해줍니다 툴링 덕분에 하늘이 한계입니다 그러니 큰 사진을 찍은 것에서 가장 작은 것까지 봅시다 모든 것은 가능한 한 간단하게 만들어야합니다 코드의 작은 조각으로 간단하게 시작하자

우리가 세부 사항에 뛰어 들기 전에 그리고 깊은 학습에서 가능한 모든 것을 통해 큰 실행 몇 줄의 코드만으로 아주 기본적인 수준에서 정말로 여섯, 6 개의 코드 조각, 당신이 이해할 수있는 신경망을 훈련시킬 수 있습니다 이미지에서 무슨 일이 일어나고 있는지 나는 항상 MNIST 데이터 세트를 좋아할 것입니다 손으로 쓴 자릿수는 어디 입력 신경망 또는 기계 학습 시스템에 자필 자의 그림 출력은 그 숫자에있는 숫자입니다

라이브러리 TensorFlow를 가져 오는 첫 번째 단계만큼 간단합니다 두 번째 단계 : MNIST 데이터 세트를 가져옵니다 레고 벽돌처럼 세 번째 단계는 서로의 위에 쌓는다 숨겨진 레이어와 레이어로 신경 네트워크 레이어, 입력 층 및 출력 층 4 단계는 모델을 한 줄처럼 간단하게 훈련시킵니다 : 모델 적합성

테스트 데이터 세트의 5 단계에서 모델을 평가하십시오 그리고 그게 다야 6 단계에서 배포 준비가 완료되었습니다 이미지에 무엇이 있는지 예측할 준비가되었습니다 그것은 간단합니다

그리고이 코드의 대부분은 분명히 훨씬 더 복잡하거나 훨씬 더 정교하고 풍부하고 흥미로운 우리가 이용할 수있게 될 복합체 이 과정에 수반되는 우리 저장소의 github 오늘 우리는 운전자 장면 세분화에 관한 첫 번째 튜토리얼을 발표 할 것입니다 나는 모든 사람들이 그것을 통과하도록 권장한다 그리고 나서 한 슬라이드의 툴링면에서, 우리가 신경 네트워크와 깊은 학습에 뛰어 들기 전에 다른 많은 것들 사이의 툴링면 TensorFlow는 깊은 학습 라이브러리입니다

Google의 오픈 소스 라이브러리 오늘 가장 인기있는 것 거대한 생태계에서 가장 활동적입니다 파이썬에서 가져 오는 것만이 아닙니다 몇 가지 기본적인 문제를 해결할 수 있습니다 전체 툴링 생태계가 있습니다

다양한 수준의 API가 있습니다 이 과정에서 우리가 할 일 중 상당 부분은 Keras를 사용한 최고 수준의 API 그러나 TensorFlowjs를 사용하여 브라우저에서 실행할 수있는 기능도 있습니다 TensorFlow Lite와 함께 전화로 컴퓨터 하드웨어가 필요없는 클라우드 환경에서, 자신의 컴퓨터에 설정된 라이브러리가 있으면 아무 것도 실행할 수 없습니다

우리가 클라우드에서 제공하는 모든 코드 Colab, Colaboratory Google이 제공하는 최적화 된 ASIC 하드웨어 TPU-Tensor 처리 장치로 TensorFlow에 최적화 TensorFlow 허브를 제공하는 텐서 보드 모델을 시각화하는 기능 그리고 이것은 단지 전체 생태계입니다 가장 중요한 것은 블로그의 문서화라고 생각합니다 매우 접근하기 쉬운 툴링의 기초를 이해한다

문제를 풀 수있는 자연 언어 처리에서 컴퓨터 비전에 이르기까지 GANs – Generative Adversarial Networks 및 그 사이의 모든 것들은보다 강력한 집행 학습과 함께합니다 그래서 우리는이 과정에서 이론과 이론 모두에서 일하게되어 기뻤습니다 이 일련의 강의와 금형 제작에서, TensorFlow의 적용면에서 예외적으로 액세스 할 수있는 이러한 아이디어를 실제로 만들었습니다 핵심에서의 깊이있는 학습은 형성 능력입니다 더 높은 수준의 추상화 데이터 및 원시 패턴 표현 표현 높고 높은 수준의 패턴 이해

그리고 그 표현은 매우 중요합니다 데이터를 해석 할 수있는 효과가 있습니다 특정 표현에서 데이터는 사소한 것입니다 이해하기, 고양이 대 개, 파란 점 대 녹색 삼각형 다른 사람들에게는 훨씬 어려워요

이 작업에서는 극좌표 아래에 선을 그리는 일은 간단합니다 데카르트 좌표에서 매우 어렵다 정확하게하는 것은 불가능합니다 그리고 이것은 표현의 사소한 예입니다 따라서 일반적으로 기계 학습을 통한 깊은 학습을 통한 우리의 과제 는 토폴로지를 매핑하는 표현을 형성합니다

이것은 토폴로지가 무엇이든, 문제의 풍부한 공간 당신이 원시 입력을 다루려고한다는 것을 그런 식으로지도를 만들라 최종 표현은 작업하기가 쉽지 않다 회귀 분석을하기 위해 사소하고, 그 데이터의 새로운 샘플을 생성하는 것은 사소한 일이다 그리고 표현의 더 높은 수준과 높은 표현 정말 인공 지능의 꿈입니다 그것은 이해가 무엇인지, 콤플렉스를 몇 슬라이드에서 아인슈타인이 다시 말했듯이

그리고 Juergen Schmidhuber와 그 누군가가 그것을 말하면, 나는 모른다 그것은 일반적으로 모든 과학의 꿈이었습니다 과학의 역사 중 압축 진행의 역사, 더 간단하게 만들기 그리고 아이디어의 단순한 표현 태양계의 우주 모델 지구의 중심에 물리학을 수행하기 위해 수행하는 것이 훨씬 더 복잡하다 태양이 중심에있는 모델

단순 표현의 더 높고 높은 수준 우리가 극도로 강력한 것을 할 수있게 해줍니다 그것은 과학의 꿈이었습니다 인공 지능의 꿈 왜 깊은 학습인가? 웅장한 곳에서 깊은 학습에 특별한 점은 무엇입니까? 기계 학습과 인공 지능의 세계? 그것은 인간 전문가의 의견을 점점 더 많이 제거 할 수있는 능력입니다 그림에서 인간을 제거하고, 인간의 비효율적 인 노력

깊은 학습은 익히기에서 많은 추출을 자동화합니다 미가공 데이터에 더 가깝고 가까워진다 인간 개입의 필요성없이, 인간 전문가 참여 원시 데이터로부터 표현을 형성하는 능력 인간이 특징을 추출해야하는 것과는 대조적이다 80 년대와 90 년대와 마찬가지로 초기에 기능 추출 이를 통해 기계 학습 알고리즘이 작동합니다

지형지 물의 자동 추출 크고 더 큰 데이터 세트로 작업 할 수있게 해줍니다 인간을 완전히 제거하다 맨 끝의 감독 라벨 단계를 제외하고 그것은 인간 전문가가 필요하지 않습니다 하지만 동시에 우리 기술에는 한계가 있습니다 흥분과 환멸 사이에는 항상 균형이 있습니다

가트너의 과대 선전, 우리가 그것에 대해 생각하기 싫은만큼, 거의 모든 단일 기술에 적용됩니다 물론 봉우리와 골짜기의 크기는 다릅니다 그러나 나는 우리가 정점에 있다고 말할 것입니다 깊은 학습으로 부풀어 오른 기대감을 우리가 이야기 할 때 생각해야 할 부분입니다 미래의 아이디어와 흥미 진진한 가능성들

그리고 우리가 이야기 할자가 운전 자동차로 미래 강의 우린 똑같아 사실 우리는 절정을 약간 넘었습니다 그리고 그것은 우리에게 달려 있습니다 이것은 MIT와 엔지니어 및 세계에서 작업하는 사람들입니다 물통을 통해 우리를 운반, 부침으로서 우리를 미래로 인도한다

흥분의 진행은 앞으로 나아 간다 생산성의 고원으로 왜 그렇지 않은가? 실제 응용 프로그램을 보면 특히 인간형 로봇, 로봇 조작 심지어 자치 차량이라 할지라도, 자치 차량의 대부분의 측면 광범위한 금액에 관여하지 않는다 오늘 기계 학습 문제는 데이터 기반 학습으로 공식화되지는 않지만, 대신 모델 기반 최적화 방법입니다

시간이 지남에 따라 데이터를 배울 수 없습니다 그리고 스피커에서이 두 주 우리는 얼마나 많은 기계 학습이 시작되는지 보게 될 것입니다 하지만 보스턴과 함께 여기에 표시된 예는 Boston Dynamics의 놀라운 휴머노이드 로봇 지금까지 거의 기계 학습이 사용되지 않았다 사소한 인식을 제외하고 자율 차량과 동일합니다

기계 학습 및 심층 학습이 거의 사용되지 않았습니다 지각을 제외하고 시각적 텍스처 정보의 향상된 인식에 대한 일부 측면 점점 더 사용되기 시작한 것 재발 성 신경망의 사용 미래를 예언하기 위해, 장면의 다른 플레이어의 의도를 예측하는 것 미래가 무엇인지 예상하기 위해서 그러나 이것은 매우 초기 단계입니다

EC의 성공의 대부분은 오늘날 모세가 얻은 천만 마일 떨어져 있습니다 주로 비 기계 학습 방법에 기인합니다 왜 그렇지 않은가? 의도하지 않은 결과의 정말 깨끗한 예가 있습니다 윤리적 문제의 우리는 정말로 생각해야합니다 알고리즘이 데이터로부터 학습 할 때 목적 함수, 손실 함수, 힘, 알고리즘의 결과 그 기능이 항상 명확하지는 않다는 것을 최적화합니다

다음은 게임을하는 인간 플레이어의 예입니다 해안 주자들과 함께, 할 일이있는 보트 레이스 게임입니다 경주장 주변에서 경주에서이기려고 노력하십시오 그리고 가능한 많은 점수를 얻는 것이 목표입니다 포인트를 얻는 세 가지 방법이 있습니다

마무리 시간, 마무리까지 걸린 시간 당신이 순위에 있던 마무리 위치 그리고 콘을 집어 들면 길을 따라 작은 초록색 물건이 터보가되었습니다 그들은 당신에게 점수를줍니다 좋아요

그래서 우리는이 경우 에이전트를 RL 에이전트로 설계했습니다 보상을 위해 최적화됩니다 그리고 우리가 여기서 발견 한 것은, 최적의 에이전트는 최적의 경주 나 랭킹을 마무리하는 것과는 아무런 관련이 없습니다 그들은 훨씬 더 많은 포인트를 얻을 수 있습니다 터보에 집중하고 그것들을 모으는 것만으로 그들이 재생하기 때문에 그 작은 녹색 점

그래서 만약 당신이 서클에 들어가서 계속해서 벽에 빠지면 녹색의 터보를 모으는 것 그리고 그것은 매우 분명한 예입니다 합리적인, 공식화 된 목적 함수 그것은 예상치 못한 결과를 초래합니다 최소한 고려하지 않고 그 결과를 미리 고려하십시오 AI 안전에 대한 필요성을 보여줍니다

기계 학습의 루프에있는 인간의 경우 그렇기 때문에 독점적으로 깊은 학습을하는 것이 아닙니다 깊은 학습 알고리즘, 심층 학습이 적용된 문제 올바른 질문을하는 것입니다 그 답이 무엇을 의미하는지 이해하십시오 당신은 한 걸음 물러서서 그 차이를보아야합니다

구별, 수준, 알고리즘의 성취 정도 예를 들어 이미지 분류 반드시 장면을 이해하는 것은 아닙니다 사실 장면 이해와는 거리가 멀습니다 분류는 이해와는 거리가 멀다 그리고 데이터 세트는 크게 다를 수 있습니다

사용 된 데이터 세트의 여러 벤치 마크에서 전문적으로 완성 된 사진 대 종합적으로 생성 된 이미지 대 실제 데이터 그리고 실제 데이터는 큰 영향이있는 곳입니다 종종 한 번은 다른 것으로 옮겨 가지 않습니다 그것은 깊은 학습의 도전입니다 다양한 조명 변화의 이러한 모든 문제를 해결하면, 변이를 부과하다

우리가 당연한 인간으로 가져가는 모든 것들 우리의 믿을 수없는 지각 체계 얻으려면 모두 해결해야합니다 장면에 대한 더 큰 이해 우리가 그 격차를 줄이기 위해해야 ​​할 다른 모든 것들 그걸로 우리는 아직 가까이 있지 않습니다 몇 년 전 Andrej Karpathy 블로그의 이미지가 있습니다

오바마 전 대통령이 규모를 벌리고있다 우리는 분류 할 수 있습니다, 우리는 의미 론적 세분화를 할 수 있습니다 우리는 물체 감지를 할 수 있습니다 우리는 a에서 약간의 3 차원 재건을 할 수 있습니다 장면의 비디오 버전

그러나 우리가 잘 할 수없는 것은 우리가 당연시하는 모든 것들입니다 거울의 이미지와 현실의 이미지를 다르게 말할 수는 없습니다 우리는 정보의 희소성을 다룰 수 없습니다 오바마 대통령의 얼굴에 단지 몇 픽셀 우리는 여전히 MrPresident를 확인할 수 있습니다

장면의 3D 구조 저울 위에 인간의 존재가 있다는 발이있다 단일 이미지에서 우리가 가진 모든 상식적 의미의 지식을 사용하여 쉽게 할 수있는 것들 중력이있는 장면의 물리학을 할 수는 없습니다 그리고 가장 큰 것은, 가장 어려운 일은 어떤 사람들의 마음입니다 다른 사람들의 마음에 무엇이 있는지에 대한 어떤 사람들의 마음

사람들이 생각하는 것을 추론 할 수있는 세계의 정신 모형 MIT에서 흥미로운 일들이 많이 있었음을 추측 할 수있게되었습니다 사람들이보고있는 것 그러나 우리는 그 문제를 해결하는 것에도 가깝지 않습니다 하지만 우리가 생각하는 것은 우리가 우리는 그 문제에 대해 정말로 생각하기 시작하지도 않았습니다

그리고 우리는 인간으로서 사소한 것입니다 그리고 나는 그 핵심에 있다고 생각합니다 나는 시각 인식 문제에 숨어 있다고 생각합니다 왜냐하면 우리는 인간으로서 당연한 것으로 여기는 것입니다 특히 실제 문제를 풀려고 할 때, 특히 자율 주행을 풀려고 할 때 우리는 시각적 인식을 위해 5 억 4 천만년의 데이터를 가지고 있습니까? 그래서 우리는 그것을 당연한 것으로 생각합니다

우리는 얼마나 어려운지 알지 못합니다 그리고 우리는이 최근 개발에 모든 관심을 집중할 수 없습니다 추상적 생각의 십만 년의 체스가 이성을 발휘할 수있게되었습니다 그러나 시각적 인 인식은 그럼에도 불구하고 매우 어렵습니다 인식 할 필요가있는 모든 단일 계층에서 해석합니다

장면의 기본 사항을 이해해야합니다 그것이 당신이 혼란 스러울 수있는 모든 방법임을 보여주는 사소한 방법입니다 이러한 이미지 분류 시스템 약간의 소음을 추가하여 지난 몇 년 동안 많은 연구가있었습니다 당신이이 시스템들을 망쳐 놓을 수 있음을 보여주기 위해 노이즈를 추가하여 99 %의 정확성을 가진 개가 여기에서 예측했습니다 약간의 왜곡 추가 당신은 즉시 타조라는 99 % 정확도로 시스템을 예측합니다

그리고 당신은 단 하나의 픽셀로 그런 종류의 조작을 할 수 있습니다 그래서 이것은 이미지 분류 간의 차이를 보여주는 단지 깨끗한 방법 일뿐입니다 ImageNet과 같은 인공 데이터 셀에서 그리고 현실 세계의 인식은 해결되어야하며, 특히 자율 주행과 같은 치명적인 상황의 경우 이 상승하는 바다에 대한 맥스 테그 마크의 시각화가 정말 마음에 듭니다 Hans Moravec의 인간 역량의 풍경 그리고 이것이 우리가 앞으로 나아갈 때의 차이입니다

그리고 우리는 이러한 기계 학습 방법 중 일부를 논의했습니다 인간의 지능, 일반적인 인간의 지능이 있는가? 아인슈타인을 여기서 불러 봅시다 모든 종류의 문제를 일반화 할 수 있습니다 상식에서부터 엄청나게 복잡한 모든 종류에 이르기까지 그리고 우리가 해왔 던 방식이 있습니다

특히 데이터 기반 기계 학습, 전문화 된 정보인 Savant입니다 특정 작업에서 매우 똑똑하다 매우 좁은 곳을 제외하고는 양도 할 수 없습니다 이 풍경의 이웃 예술, 영화 촬영, 봉우리에서 책 쓰기의 다른 것의 체스, 산수 및 정리 증명 및 비전 호수의 바닥에 그리고 문제가 발생한 후에이 상승하는 바다가 있습니다

질문은 방법론을 사용할 수 있고 우리가 지금하고있는 모든 것에 대한 깊은 학습 바다를 계속 지키거나 근본적인 돌파구를 만드십시오 일반화하기 위해 일어날 필요가있다 이러한 문제를 해결하십시오 전문 분야에서 성공한 부분은 시스템은 본질적으로 데이터 세트가 주어지기까지 삶아진다 그 데이터 세트에 대한 근거 진리가 주어지면, 보스턴 지역의 아파트 비용은 다음과 같습니다

여러 매개 변수를 입력 할 수 있어야합니다 그 매개 변수를 기반으로 아파트 비용을 예측합니다 그것은 성공적인 성공의 기본 전제입니다 오늘날 심층 학습 시스템을 감독했습니다 데이터가 충분하다면 충분한 근거가 될 것입니다

공식화 될 수 있다면 해결할 수 있습니다 최근에 우리가 일련의 강의를 다하겠다는 약속이 있습니다 3 주째의 심화 학습 매우 적은 주석으로 원시 감각 정보에서 그것을 보여라 인간 감독없이 시스템이 학습할지 여부에 관계없이 스스로 플레이 이러한 제한된 상황에서 매우 잘 수행 할 수 있습니다 비디오 게임의 문제

여기에서 화소는 원시 화소를 인식 할 수 있습니다 원시 입력 으로이 탁구 게임의 이 게임의 근본적인 인용구 인용문 물리학을 배웁니다 이 게임이 어떻게 작동하는지 이해합니다 그리고 어떻게이 게임에서 이길 수 있는지 이것은 범용 인공 지능에 대한 단계입니다

그러나 그것은 아주 작은 단계입니다 시뮬레이션 된 매우 사소한 상황이기 때문입니다 그게 우리 앞에있는 도전입니다 점점 더 적은 인간 감독이 거대한 실제 문제를 해결할 수 있습니다 상위 감독 학습에서 대다수의 교수법 인간이 행한다

주석 처리 과정 전반에 걸쳐 모든 데이터에 라벨을 붙이고, 다른 예를 보여줌으로써 더 나아가서는 반 감독적인 학습에 이르기까지, 보강 학습 및 감독 학습 그림에서 선생님을 제거합니다 그리고 필요할 때 교사를 매우 효율적으로 만듭니다 물론 데이터 증가가 우리가 이야기하는 한 가지 방법입니다 그래서 적은 수의 예제와 일련의 예제들을 망쳐 놓고, 그러한 예제들을 보강하고, 사소하고 복잡한 수확 방법을 통해, 스트레칭, 이동 등등 해당 이미지를 수정하는 생성 네트워크 포함 작은 데이터 세트를 큰 데이터 세트로 성장시키기 인간의 입력을 최소화하고, 더 멀리 그리고 더 줄이기 위해 인간 교사의 입력

하지만 여전히 엄청나게 효율적입니다 인간이 가르치고 배우는 것 이것은 비디오이며 인간 아기가 처음으로 걷는 온라인 비디오 게임입니다 우리는 당신이 알고있는 것을 배우며, 그것은 한 번 배우는 것입니다 어느 날 네가 4 살, 네 살, 그리고 그 다음날 네 손에 나머지는 알아 낸거야

한 번의 기회 글쎄, 당신은 일종의 수 있습니다, 당신은 일종의 놀 수 있습니다 그러나 요점은 매우 효율적입니다 단지 몇 가지 예를 통해 우리는 특정 문제를 해결하는 방법 대부분의 경우 기계에 수천, 수백만 때로는 응용 프로그램의 수명이 중요한 특성에 따라 더 많은 예제가 필요합니다

감독 학습 시스템의 데이터 흐름에는 입력 데이터가 있습니다 학습 시스템이 있고 출력이 있습니다 이제 출력을위한 교육 단계에서 우리는 진실을 알게되었습니다 그래서 우리는 그 기초 진리를 사용하여 체계를 가르칩니다 테스트 단계에서 야생으로 나가면 새로운 입력 데이터가 생깁니다

우리는 학습 시스템으로 일반화해야합니다 우리는 최선의 추측을해야합니다 훈련 단계에서 신경망을 가진 과정이 주어진다 우리가 지상 진실을 가지고있는 입력 데이터, 모델을 통해 전달, 예측을하십시오 그리고 우리가 지상 진리를 가지고 있다고 가정하면 우리는 예측을 지상 진실과 비교할 수 있습니다

오류를보십시오 그리고 그 오류에 따라 무게를 조정하십시오 우리가 할 수있는 예측 유형은 회귀와 분류입니다 회귀는 연속적이며 분류는 범주 적입니다 여기서 우리가 회귀 문제가 내일은 온도가 어떨까요? 그리고 그 문제의 분류 공식화 뜨겁거나 차가워 질 것입니다

뜨겁거나 차가운 것에 대한 어떤 임계치 정의 그것은 회귀와 분류입니다 그리고 그것은 멀티 클래스 수있는 분류 전면 이것이 표준 제형입니다 우리는 다음과 같이 말하고 있습니다 무엇이 유일한 존재 일 수 있다는 것입니다

다중 레이블이 있거나 특정 엔터티가 여러 가지 일 수 있습니다 그리고 전반적으로 시스템에 대한 입력은 단순한 것이 아닙니다 특정 데이터 세트의 샘플 출력이 특정 일 필요는 없습니다 지상 진실 데이터 세트의 샘플 그것들은 서열, 서열 대 서열, 단일 샘플을 시퀀스에, 시퀀스를 샘플에 등등

비디오 캡션에서 또는 번역 할 비디오 캡션입니다 자연어 생성은 당연히 일대일로 이루어집니다 일반적인 컴퓨터 비전으로 컴퓨팅 좋아, 그게 더 큰 그림이야 큰 것에서 작은 것으로 되돌아 가자

우리 자신의 두뇌에서 영감을 얻은 하나의 뉴런에, 우리 뇌의 생물학적 신경 네트워크, 우리의 마음 속에있는 많은 지능 뒤에있는 계산 블록에 인공 뉴런에는 가중치가있는 입력이 있습니다 바이어스 및 활성화 기능 추가 및 출력 이게 영감을 받았다 전에 보여 줬던 것처럼 시상 각막 시스템을 시각화합니다

3 백만 뉴런을 가진 476 백만개의 시냅스 전뇌에는 1 억억 개의 뉴런이 있습니다 천조 개의 시냅스가있다 ResNet 및 기타 최첨단 네트워크 수 억억을 가지고있다 시냅스 가장자리의

인간의 뇌는 1 천만 배나 더 많은 시냅스를 가지고 있습니다 인공 신경 신경 네트워크보다 다른 차이점이 있습니다 토폴로지는 비동기식입니다 레이어로 구성되지 않습니다 인공 신경망의 학습 알고리즘은 역 전파이다

우리의 생물학적 네트워크에 대해서는 우리가 알지 못합니다 그것은 인간 두뇌의 신비 중 하나입니다 아이디어가 있지만 우리는 정말로 모른다 인간 두뇌의 전력 소비가 훨씬 효율적입니다 우리가 해결하려고하는 문제 중 하나 인 네트워크를 아는 것보다 ASIC은 이러한 문제를 해결하기 시작했습니다

그리고 생물학적 신경망에서 배우는 단계 당신은 정말로 결코 배우는 것을 멈추지 않습니다 당신은 항상 배우고, 항상 변화합니다 하드웨어와 소프트웨어 모두 인공 신경망에서는 종종 훈련 단계가 있으며, 뚜렷한 훈련 단계가 있습니다 그리고 야생에서 물건을 내놓을 때는 확실한 시험 단계가 있습니다

온라인 학습은 매우 어려운 일입니다 우리는 여전히 초기 단계에 있습니다 이 뉴런은 약간의 입력을 필요로하는데, 신경망 뒤에있는 기본적인 계산 블록, 몇 개의 입력을 취하고, 학습 된 매개 변수 인 가중치를 적용하고, 그들을 합산하고, 바이어스를 더한 후에 그것을 비선형 활성화 함수에 넣고, 또한 매개 변수를 학습하고 출력을 제공합니다 그리고이 뉴런의 임무는 흥분하는 것입니다 레이어의 특정 측면에 기반하여 전에 따르는 입력

그리고 차별하는 능력은 특정 사물에 흥분합니다 정보의 작은 조각을 잡아 다른 것들에 대해 흥분하지 마라 어떤 추상화 수준 이건간에 그래서 당신이 그들 중 많은 것을 함께 결합 할 때 너는 지식이있어 다양한 레벨의 추상화가 지식 기반을 형성합니다 이는 특정 원시 입력 집합을 나타내거나 이해하거나 심지어 행동 할 수 있습니다

그리고이 뉴런을 레이어로 함께 쌓으십시오 너비와 깊이가 계속 증가하고 있습니다 그리고 다양한 아키텍처 변형이 있습니다 그러나 신경 네트워크의 숨겨진 단일 계층으로 시작한다는 기본적인 사실부터 시작합니다 가능성은 무한합니다

임의의 함수를 근사 할 수 있습니다 단일 숨겨진 레이어가있는 신경망은 모든 함수를 근사 할 수 있습니다 즉 여러 레이어가있는 다른 신경망을 의미합니다 그냥 흥미로운 최적화입니다 우리가 그 기능들을 어떻게 발견 할 수 있는지 가능성은 무한합니다 그리고 다른 측면은 수학적 토대입니다

가중치와 미분 가능한 활성화 함수를 갖는 신경망 입력에서 출력까지의 몇 단계에서 심하게 병렬 처리가 가능합니다 이것이 바로 컴퓨팅의 다른 측면입니다 신경망의 병렬화 가능성 흥미로운 것들을 가능하게하는 것입니다 그래픽 처리 장치 GPU의 발전 그리고 ASICs TPUs 컴퓨터에서 실행될 수있는 능력, 대규모 분산 규모의 GPU 단위에서 신경망에 대한 추론을 훈련하고 수행 할 수 있어야합니다

활성화 기능 이러한 활성화 기능은 함께 구성됩니다 손실 기능을 최적화하는 임무가 주어집니다 회귀 함수의 손실 함수는 평균 제곱 오차입니다 일반적으로 많은 편차가 있습니다

그리고 분류는 엔트로피 손실을 교차시킵니다 교차 엔트로피 손실에서 지상 진리는 0입니다 평균 제곱 오차는 실수입니다 그리고 손실 함수, 가중치, 바이어스 및 활성화 함수 입력에서 출력으로 네트워크로 전달됩니다 손실 함수를 사용하여 우리는 backpropagation 알고리즘을 사용하는데, 나는 지난번 전체 강연을했는데, 가중치를 조정합니다

공기 흐름을 네트워크로 뒤로 이동하려면 다음과 같이 가중치를 조정하십시오 다시 한번 책임을지는 가중치 정확한 산출물을 산출한다 책임있는 가중치가 증가합니다 부정확 한 출력을 생성하는 것이 감소합니다 정방향 패스를 사용하면 오류가 발생합니다

역방향 패스는 그라디언트를 계산하고 그라데이션을 기반으로합니다 최적화 알고리즘은 학습 속도를 결합하여 가중치를 조정합니다 학습 속도는 네트워크가 얼마나 빨리 학습하는지입니다 그리고이 모든 것은 수치 계산에서 가능합니다 자동 차별화 된 측면

그라디언트가 주어진 최적화 문제 계산되고 충분하다 그라디언트의 네트워크로의 역방향 흐름은 확률 적 경사 (Stochastic Gradient Descent)이다 이 최적화 알고리즘에는 많은 변형이 있습니다 다양한 문제를 해결하는 죽어가는 ReLUs에서 사라지는 그라데이션으로 다양한 매개 변수와 추진력이 있습니다

그건 정말 문제가되는 모든 문제로 귀결됩니다 그것은 일련의 과정의 일부입니다 이것은 자기 운전 차량을위한 6S094 심층 학습입니다 감기에 걸린다 여기있는 모든 사람들을 만나서 정말 반가워요

비선형 최적화로 해결되었습니다 미니 배치 크기 배치의 크기는 얼마나됩니까? 전체 데이터 세트가 아닐 때 실제로는 미니 배치라고합니다 학습을 조정하기 위해 그라디언트를 계산하는 기준이됩니다 당신은 매우 많은 양으로 그것을합니까? 아니면 데이터의 모든 단일 샘플에 대한 확률 적 그래디언트 디센트로 수행합니까? 얀 르쿤 (Yann LeCun)과 최근의 많은 문학 작품을 듣는다면 작은 미니 크기가 좋습니다

그는 "대형 미니 바 훈련은 건강에 좋지 않습니다 더 중요한 것은 테스트 오류가 나쁘다는 것입니다 친구는 32 "보다 큰 미니 바를 친구가 사용하게하지 않습니다 큰 배치 크기는 더 많은 계산 속도를 의미합니다 체중을 자주 업데이트 할 필요가 없기 때문입니다

그러나 더 작은 배치 크기는 경험적으로 더 나은 일반화를 가져옵니다 더 넓은 범위의 학습에서 종종 우리가 겪고있는 문제 해결하려고 애쓰는 것이 지나친 것입니다 우리가 해결하는 방법은 정규화입니다 우리는 어느 정도까지 암기하지 않고 데이터 세트를 훈련시키고 자합니다 그 훈련 된 데이터 세트에서만 잘 수행 할 수 있습니다

그래서 당신은 그것이 미래로 일반화되기를 원합니다 당신이 아직 보지 못했던 미래의 일들 속으로 들어가십시오 그래서 이것은 분명히 작은 데이터 세트에 대한 문제입니다 또한 선택한 매개 변수 집합에 대해서도 마찬가지입니다 여기에는 사인 곡선의 예가 나와 있습니다

특정 데이터 대 9도 다항식, 파란색 점으로 특정 데이터 세트를 맞추려고합니다 9도 다항식은 오버 피팅입니다 특정 샘플 세트에 대해서는 매우 잘 수행됩니다 일반적인 경우에는 잘 일반화되지 않는다 그리고 여기서 트레이드 오프는 여러분이 더 멀리 더 훈련 할 때입니다

어떤 점에서 훈련 세트에서 오차가 0으로 감소됨 테스트 세트에서 1로 갈 것입니다 그리고 그것이 우리가 공격해야 할 균형입니다 유효성 검사가 끝났습니다 그래서 당신은 당신이 지상 진실을 가지고 훈련 집합의 조각을 가져 가라

그리고 당신은 그것을 set 내부의 밸리데이션 세트라고 부른다 해당 유효성 검증 세트에서 시스템의 성능을 평가할 수 있습니다 그리고 교육 네트워크가 제대로 작동하지 않는 것을 확인한 후에 장기간에 걸친 검증 세트에서, 그 때 그만 해요 그건 일찍 파업이야 기본적으로 점점 더 좋아지고 나아지고 있습니다

그리고 나서 약간의 시간이 있습니다 물론 항상 소음이 있습니다 몇 시간이 지나면 확실히 악화되고 있습니다 우리가 거기에서 멈출 필요가 있습니다 따라서 중지해야하는 시점을 자동으로 알 수 있습니다

그리고 다른 많은 정규화 방법론이 있습니다 물론 내가 언급 한대로 드롭 아웃은 매우 흥미로운 접근 방식입니다 그리고 그것은 특정 종류의 확률의 단순한 분산입니다 임의로 네트워크의 노드를 제거하고, 들어오고 나가는 가장자리, 훈련 과정 전반에 무작위로 정상화가 있습니다

정규화는 입력에 항상 적용됩니다 따라서 데이터 세트가있을 때마다 조명 조건에 따라 다른 변화 그들은 다른 출처를 얻는 등등, 당신은 모든 종류의 똑같은 수준에 있어야합니다 입력 데이터의 근본적인 측면을 배우기 위해 덜 관련성이있는 의미 론적 정보와는 대조적으로 조명 변화와 유사합니다 그래서 우리는 대개 항상 정상화합니다 예를 들어 픽셀이 0에서 255 사이 인 컴퓨터 비전 인 경우, 항상 0에서 1 또는 -1에서 1로 정규화합니다

평균 및 표준 편차에 기초하여 정규화 할 수있다 그것은 거의 항상해야 할 일입니다 획기적인 공연을 많이 만들었던 것 지난 몇 년 동안 배치 정상화입니다 그것은 나중에 네트워크에서 동일한 종류의 정규화를 수행합니다 숨겨진 레이어의 입력을 봅니다

그리고 일괄 처리 된 데이터를 바탕으로 평균과 표준 편차에 따라 정규화 된 훈련입니다 배치 재 정규화를 통한 배치 정규화 몇 가지 문제점을 해결합니다 당신이 훈련 도중 정상화하고 있다고 주어진 훈련 데이터 세트의 minibatches에서, 추론 스테이션에 직접 매핑하지 않습니다 따라서 평균을 유지함으로써 훈련과 시험 모두에서, 당신은 점근 적으로 글로벌 정규화에 접근 할 수 있습니다 따라서 모든 가중치에 적용되는이 아이디어 정규화하는 모든 가중치의 입력뿐만 아니라 당신이 만드는 추상화의 모든 수준에서 세계

배치 renorm은 이러한 추측을하는 많은 문제를 해결합니다 그리고 거기에는 많은 다른 아이디어가 있습니다 그룹 정상화에 대한 인스턴스 정규화 그리고 TensorFlow 놀이터에서 이러한 아이디어를 많이 활용할 수 있습니다 playground

tensorfloworg에서 적극 추천합니다 이제 여러 가지 아이디어를 실행 해 보겠습니다 그 중 일부는 향후 강연에서 다루겠습니다 그리고 깊은 학습의 세계에서이 모든 것은 무엇입니까? 컴퓨터 비전에서 심층적 인 학습에 이르기까지 다른 작은 레벨 기술로 큰 자연 언어 처리에? 그래서 회선 신경망, 이미지 분류를 가능하게하는 것

따라서 필터의 이러한 컨볼 루션은 이미지 위로 미끄러 져 들어가고 공간적 불변성을 이용할 수있다 왼쪽 상단에있는 고양이가 오른쪽 상단 모서리에있는 고양이와 관련된 기능과 동일합니다 이미지는 숫자의 집합이며 우리의 임무는 그 이미지를 취하는 것입니다 분류를 생산한다 시각적 정보의 공간적 분산에서 공간을 사용하여 이미지 전체에 회선 필터를 슬라이드합니다

그 반대의 필터를 배우십시오 다양한 기능에 존재하는 지형지 물에 동등한 가치를 부여하는 것과는 대조적이다 이미지의 다양한 영역에서 이 회선 필터가 쌓아 올릴 수있는 최상위 기능에 쌓여 있습니다 시각 정보와 이미지의 높은 수준의 추상화 필자가 언급 한 AlexNet, ImageNet 데이터 세트 및 챌린지 신경망으로 가능한 것을 세상에 매료시킨다 더욱 더 발전되어왔다

특별주의와 함께 인간의 성과를 대체 시작 모듈이있는 GoogLeNet ResNet을 따라 잔차 블록과 함께 나온 다양한 아이디어가 있습니다 그리고 최근에는 SENet 따라서 객체 검출 문제는 다음 단계의 한 단계입니다 시각적 인 인식에서

따라서 이미지 분류는 전체 이미지를 가져가는 것입니다 무엇이 이미지에 있는지 말하라 객체 감지 로컬 화는 관심있는 모든 객체를 찾는 것입니다 장면에서 분류하고 분류합니다 지역 기반 방법은 여기에 표시됩니다

빠른 R-CNN 이미지, 회선 신경망을 사용하여 그 이미지의 특징들을 추출한다 지역 제안을 생성 할 수 있습니다 여기 당신이보아야 할 후보들이 있습니다 그리고 그 후보자들 안에서, 그들은 그들이 무엇인지를 분류합니다 바운딩 박스의 4 개의 파라미터를 생성한다 그 것을 알아 채는 것

따라서 물체 감지 지역화는 궁극적으로 경계 상자로 귀결됩니다 클래스를 가지는 구형 그 경계 상자에있는 가장 가능성있는 클래스입니다 그리고 지역 기반 메소드를 실제로 요약 할 수 있습니다 지역 제안서를 생성 할 때 여기에 약간의 의사 코드와 for 루프를 수행합니다 지역 제안을 통해 for 루프에서 감지를 수행합니다

Single-Shot 메서드는 for 루프를 제거합니다 단 하나 통과가, 당신은 예를 들어 여기에 SSD를 보여줍니다 미리 훈련 된 신경망 가져 가라 그것은 이미지 분류를 수행하도록 훈련 받았고, 위에 콘볼 루션 (convolution) 레이어들을 쌓아 놓고, 각 레이어에서 추출한 피쳐 그런 다음 단일 패스로 생성 할 수 있습니다 클래스 경계 박스, 경계 상자 예측 및이 경계 상자의 클래스 연관 여기에서 교환하십시오, 이것은 대중적인 노란 v123come에서 종종 여기에서 절충은 성능과 정확성에 있습니다

따라서 단일 샷 방법은 종종 성능이 떨어집니다 특히 정확성 측면에서 정말 멀리 떨어져있는 물건이나 오히려 이미지의 크기가 작거나 큰 이미지입니다 시각적 인식, 시각적 이해의 다음 단계 의미 론적 세분화입니다 여기서 우리가 github에 제시 한 튜토리얼이 다루는 부분입니다 시맨틱 세분화는 이제 경계 상자와 반대되는 작업입니다

또는 전체 이미지를 분류하거나 객체를 감지하는 것은 경계 상자입니다 픽셀 수준에서 할당 중입니다 물체의 경계 모든 단일, 전체 장면 고전 전체 장면 분할을 분류, 해당 픽셀을 분류하는 모든 단일 픽셀 거기에 근본적인 측면이 있습니다 우리는 수요일에 좀 더 많이 다루겠다 이미지 분류 네트워크를 사용하고 있습니다

어떤 시점에서 그것을 잘라 그리고 나서 엔코딩 단계를 수행하는 것을 갖는 것 장면의 표현을 압축하는 것 그리고 그것을 디코더로 표현하면 조밀 한 방법으로 업 샘플링합니다 그래서 그 표현을 업 샘플링하는 것입니다 픽셀 레벨 분류

그래서 업 샘플링에는 우리가 이야기 할 많은 트릭이 있습니다 그들은 흥미 롭지 만 궁극적으로 표현을 형성하는 인코딩 단계 현장에서 벌어지고있는 일 업 샘플링하는 디코딩 단계 픽셀 레벨 주석, 모든 개별 픽셀의 분류 그리고 여기에서 언급했듯이 기본 아이디어가 적용되었습니다 가장 광범위하게 가장 성공적으로 컴퓨터 비전에서 전송 학습입니다 가장 일반적으로 적용되는 이전 학습 방법은 미리 훈련 된 네트워크를 이용하는 것입니다 ResNet을 좋아하고 어떤 시점에서 그것을 자르면됩니다

완전히 연결된 레이어를 잘라 버리고, 어떤면에서는 레이어의 일부와 데이터 세트를 취하고, 새로운 데이터 세트 및 해당 네트워크 재교육 그럼이게 무슨 도움이 될까요? 업계의 모든 단일 애플리케이션 컴퓨터 비전에 적합합니다 특정 응용 프로그램이있을 때 보행자 감지기를 만들고 싶습니다 보행자 감지기를 만들고 보행자 데이터 세트를 갖고 싶다면, ResNet을 ImageNet 또는 COCO에서 교육하는 것이 유용합니다 그리고 그 네트워크를 사용하여 일부 레이어를 잘라냅니다

시각 지각의 일반적인 경우에 훈련 그런 다음 전문 보행자 데이터 세트에 다시 입력하십시오 그리고 데이터 세트의 크기에 따라 사전 트레이닝 네트워크로부터의 이전 층들의 합은 고정되어야하고, 겨울 왕국 때로는 데이터의 크기에 의존하지도 않습니다 컴퓨터 시각에 매우 효과적입니다

오디오 연설과 NLP에서도 그렇습니다 그리고 사전 훈련 된 네트워크에서 언급했듯이 그들은 궁극적으로 데이터베이스의 표현을 형성하고있다 회귀 분석이 이루어지는 분류, 예측이 이루어진다 그러나 이것의 가장 깨끗한 예는 자동 엔코더 감독되지 않은 방식으로 표현을 형성하는 것 입력은 이미지이고 출력은 정확히 동일한 이미지입니다

그러면 우리는 왜 그렇게합니까? 네트워크에서 병목 현상을 추가합니다 어디서 네트워크가 좁아 지는가? 입력 및 출력에있는 것보다 중간에 있습니다 데이터를 의미있는 표현으로 압축해야합니다 이것이 자동 엔코더의 기능입니다 출력을 재생산하기 위해 교육을하고 있습니다

잠정적 표현으로 그것을 재현한다 이는 원본 원시 데이터보다 작습니다 이것은 데이터를 압축하는 매우 강력한 방법입니다 소음 제거 등에 사용됩니다 그러나 개념을 입증하는 데 효과적인 방법이기도합니다

또한 embeddings에 사용할 수 있습니다 Google은 엄청난 양의 데이터를 보유하고 해당 데이터의 압축 된 효율적인 표현을 형성합니다 이제 실제로, 이것은 완전히 감독되지 않았습니다 실제로, 데이터를 효율적으로 표현하기를 원한다면, 당신은 감독 된 방식으로 그것을 훈련시키고 싶습니다 차별적 인 일로 훈련시키고 싶다

여기서 데이터 라벨을 지정합니다 그리고 네트워크는 고양이 대 개를 식별하도록 훈련되었습니다 차별화 된 방법으로 교육받은 네트워크 주석이 달린 감독 학습 방법 더 나은 표현을 형성 할 수 있습니다 그럼에도 불구하고 그 개념은 의미합니다 이러한 개념을 시각화하는 한 가지 방법은 내가 정말로 projector

tensorfloworg를 좋아하는 도구, 이러한 다양한 표현을 시각화하는 방법입니다 이러한 다양한 삽입 당신은 확실히 놀아야하고 자신의 데이터를 삽입 할 수 있습니다 자율 감독의 방향으로 나아가 자

표현을 형성하는 것은 생성 적 적대적 네트워크 이러한 표현을 통해 새로운 데이터를 생성 할 수 있습니다 그리고 GAN의 근본적인 방법론은 두 개의 네트워크를 갖는 것입니다 하나는 생성기이고, 하나는 판별 자입니다 그들은 서로 경쟁한다

위해, 발전기 사실적인 이미지를 생성 할 때 더 좋아지고 더 나아질 수 있습니다 잡음으로부터 이미지를 생성하는 발전기의 작업 현실적인 특정 표현을 기반으로합니다 그리고 discriminator는 차별을해야하는 비평가입니다 실제 이미지와 생성기에서 생성 된 이미지 사이 둘 다 더 잘 어울립니다

발전기는 실제 이미지를 생성 할 때 더 좋아지고 개선됩니다 판별자를 속이기 discriminator가 더 좋아지고 나아졌습니다 진짜와 가짜의 차이를 말하다 발전기가 놀라운 것들을 생성 할 수있을 때까지 NVIDIA와의 작업에서 여기에 표시된 것은 사실적인 얼굴을 생성 할 수있는 능력을 의미합니다

지난 3 년 동안 급격히 증가했다 그래서 이들은 생성 할 수 있었던 유명인 사진의 샘플입니다 그것들은 모두 GAN에 의해 ​​생성됩니다 시간 경과에 따라 일시적으로 일관된 비디오를 생성 할 수있는 기능이 있습니다 GAN과

그런 다음 능력이 표시됩니다 오른쪽 아래 엔비디아와 나는 확신한다 또한 우리는 의미 론적 세분화 (semantic segmentation)에서 픽셀 수준에 대해서 이야기 할 것입니다 존재 따라서 오른쪽의 의미 론적 픽셀 세분화 왼쪽의 장면을 완전히 생성 할 수 있어야합니다

모든 원시 풍부한 고화질 픽셀 왼쪽에 자연어 처리 세계는 동일합니다 표상 형성, 포매 형성 Word2Vec을 사용하여 단어를 표현하고 표현을 표현하는 능력 그 단어들을 효과적으로 추론 할 수 있습니다 데이터에 대한 표현을 형성하는 전체 아이디어 거대한, 당신은 백만 단어 이상의 어휘를 사용합니다 그것을 공간에 맵핑 할 수 있기를 원합니다

유클리드 감각에있다 유클리드 거리에서 단어 사이에 의미 상으로 멀리 떨어져있다 비슷한 것들은 그 공간에 함께 있습니다 그리고 예를 들어 스킵 그램으로 그 일을하는 한 가지 방법 소스 텍스트를보고있다 텍스트의 큰 본문, 감독 된 학습 문제 지도를 배우고, 단어를 예측하여 특정 단어에서 모든 이웃에게

그래서 연결 네트워크를 훈련 일반적으로 자연 언어로 볼 수 있습니다 그리고 우리가 알 수있는 연결을 기반으로 이 단어들은 서로 관련이있다 이제 여기서 가장 중요한 것이 있습니다 이제는 너무 많은 세부 사항을 다루지는 않겠지 만 여기에 단어를 나타내는 입력 벡터가있는 주요한 것 확률을 나타내는 출력 벡터 그 말들은 서로 연결되어있다 가장 중요한 것은 둘 다 결국 폐기됩니다

가장 중요한 것은 중간, 숨겨진 레이어 이 표현은 임베딩을 제공합니다 이것은 유클리드 공간에서 이러한 단어를 나타냅니다 의미 론적으로 가까이있는 것들 의미 론적으로 그것들 속에 함께있다 의미 상으로 멀리 떨어져 있지 않습니다

자연 언어 및 기타 시퀀스 데이터, 텍스트, 음성, 오디오, 비디오는 반복적 인 신경 네트워크에 의존합니다 재발하는 신경 네트워크는 배울 수 있습니다 시간적 데이터, 데이터의 시간적 동역학 시퀀스 데이터 및 시퀀스 데이터를 생성 할 수 있습니다 도전은 장기적인 맥락을 배울 수 없다는 것입니다 신경망을 풀 때 언 롤링과 역 전파를 통해 훈련되었습니다

어떤 트릭도없이 그라디언트가 매우 빠르게 사라집니다 그래서 당신은 문맥을 외울 수 없습니다 문장의 긴 형태로 여기에 확장 기능이없는 한 장기 종속성을 사용하는 LSTM 허용함으로써 포착된다 정보를 잊어 버릴 네트워크, 정보가 제 시간에 자유롭게 통과하도록 허용하십시오

기억할 것을 잊어 버리는 이유 매번 출력 할 내용을 결정합니다 그리고 그 모든 측면에는 모든 훈련이 가능한 게이트가 있습니다 시그 모이 드 및 탄 기능이 있습니다 양방향 실제 재발 성 신경 네트워크 90 년대에서 제공하는 확장 기능은 두 방향의 맥락 따라서 반복적 인 신경망은 과거에 일어난 일들을 표현하는 것

이제 많은 경우에 당신은 능력 있고, 그것은 실시간 조작이 아닙니다 당신은 또한 미래를 들여다 볼 수 있습니다 시퀀스에서 벗어나는 데이터를 조사합니다 따라서 네트워크에 대한 이점을 누릴 수 있습니다 현재와 ​​그 이후를 넘어서

반복적 인 신경 회로망에서의 인코더 – 디코더 구조 입력 시퀀스가 ​​매우 유용합니다 시퀀스와 출력은 같은 길이가 아니어야합니다 작업은 먼저 인코더 네트워크로 모든 것을 인코딩하는 것입니다 입력 시퀀스에 모든 것이 있습니다 예를 들어 기계 번역에 유용합니다

따라서 모든 정보를 영어로 입력 시퀀스를 인코딩하는 것입니다 그런 다음에 번역 할 언어로 그 표현을 받으면, 그것을 디코더에 계속 공급하십시오 재귀 신경 네트워크는 번역을 생성합니다 입력은 출력보다 훨씬 작거나 훨씬 클 수 있습니다 이것이 엔코더 디코더 아키텍처입니다

그리고 개선이 있습니다 이 인코더 – 디코더 아키텍처의 개선에 주목 입력 시퀀스를 취하는 것과는 대조적으로, 그것의 표현을 형성하고 그 것이다 실제로 입력의 다른 부분을 되돌아 볼 수 있습니다 따라서 단일 벡터 표현에 의존하지 않고 모든 전체 입력의 그리고 많은 흥분 내가 언급 한대로 아이디어를 둘러 봤다 인공 지능의 꿈의 일부 및 일반적으로 기계 학습 인간의 모습을 점점 더 많이 제거 해왔다

어려운 작업 중 일부를 자동화 할 수 있습니다 그래서 Google의 AutoML과 일반적인 개념은 신경 건축술 수색, NasNet 발견을 자동화하는 능력 신경망의 매개 변수 실제 아키텍처를 발견 할 수있는 능력 최상의 결과를 만들어냅니다 따라서 신경 아키텍처 검색을 사용하면 기본 ResNet 모듈과 유사한 기본 모듈, 재발 성 신경 네트워크 당신은 함께 조립하고 네트워크를 유지합니다

최소화하는 방식으로 조립 전체 분류 성능의 상실 그리고 당신이 다음을 구성 할 수있는 것으로 나타났습니다 훨씬 더 효율적 인 신경망 최첨단보다 훨씬 정확하다 여기 ImageNet과 같은 분류 작업에 관한 그림이 그려져 있습니다 최첨단 기술과 SCnet과의 경쟁이 극도로 저조한 것으로 나타났습니다

반대로 흥미 진진한 내가 레고 조각을 쌓아 두었다고 말했던 것처럼, 최종 결과는 근본적으로 당신이 한 발 뒤로 물러나는 것이다 여기 데이터 세트가 있다고 하잖아요 와 함께 지상 진실의 레이블 구글은 구글 오토 머니의 꿈을 데이터가있다 당신은 어떤 종류의 신경 네트워크 이 데이터 세트에서 가장 잘할 것입니다 그리고 그게 다야

그래서 가져 오는 것은 모두 데이터입니다 그것은 네트워크를 구성한다 이 신경 건축술 검색을 통해 그리고 그것은 당신에게 모델을 돌려줍니다 해결하면 예외를 해결할 수 있습니다 현실 세계의 많은 문제를 해결하십시오

본질적으로 종기가 나는 몇 가지 수업이 있습니다 나는 매우 정확해야한다 여기에 내 데이터 세트가있다 그리고 나는 깊은 학습 연구자의 문제를 어쩌면 전통적으로 문제가 될지도 모른다 더 일반적으로 일종의 데이터 과학이라고하는 것 작업이있는 엔지니어 내가 옳은 질문이 무엇인지에 집중했다

그리고 그 질문을 해결하기위한 올바른 데이터는 무엇입니까? 그리고 추가 단계를 거치는 심화 학습 인간 입력 감소의 길을 따라 심층 강화 학습은 에이전트의 임무입니다 세계를 기반으로 행동하다 그 주에서받은 국가와 보상의 관찰, 세상에 대해 거의 알지 못한다 보상의 아주 희소 한 성격에서 배우기 때로는 게임 컨텍스트에서 만 당신이이기거나 잃을 때 또는 로봇 컨테스트에서 성공적으로 작업을 완료했는지 여부 매우 희소한 상을 수여 받으면 그 세계에서 행동하는 법을 배울 수 있습니다

종과 음식의 관계를 배우는 고양이와 함께 열린 AI와 깊은 마음으로 많은 놀라운 작업 로봇 조작 및 탐색에 대해 시뮬레이션 된 환경에서 자체 재생을 통해 그리고 물론 우리 자신의 가장 깊은 강화 학습 깊은 교통과의 경쟁 여러분 모두가 참여할 수 있습니다 그리고 나는 당신이 감독 된 지식없이 그것을 얻으려고 노력하는 것이 좋습니다 시뮬레이션에서 드문 보상을 통해 인간의 감독은 없습니다 또는 방법을 배우는 자기 플레이 구조를 통해 이 세상에서 성공적으로 운영됩니다 그리고 그것들은 우리가 취하는 조치들입니다

일반적인 인공 지능을 향한 일반 이것은 획기적인 아이디어에서 흥미 진진한 것입니다 우리가 수요일 자연 언어 처리에 대해 이야기 할 내용 생성 적 적대적인 네트워크에 그들은 임의의 데이터 고해상도 데이터를 생성 할 수 있으며, 데이터를 만듭니다 정말로이 세상에 대한 이해에서 온 것입니다

깊은 배움을 배우고 배우는 것 세상에서 행동하는 법, 인간의 감독으로부터 얻는 정보는 거의 없다 더 나아가고 나아가는 단계 흥미 진진한 아이디어가 많이 있습니다 다른 이름으로 간다 때로는 오용, 때때로 과도하게 사용되거나, 때로는 이전 학습을 잘못 해석하거나, 메타 학습 및 하이퍼 파라미터 아키텍처 검색 기본적으로 가능한 한 인간을 제거한다 사소한 일에서 근본적인 측면에서만 인간과 관련된 내가 윤리적 측면에서 경주하는 보트에 대해 언급했듯이

그리고 우리 인간들이 적어도 잘하는 척하는 것들 근본적인 큰 질문을 이해하고있다 현실 세계의 문제를 해결할 수있는 자료를 이해하고, 윤리적 인 균형을 이해하고 그 문제를 해결하기 위해서는 당황 할 필요가 있습니다 오른쪽 하단에 나는이 방에 우리 직업이있다는 것을 보여줍니다 세계의 모든 엔지니어가 이러한 문제를 해결하기위한 우리의 임무 현재 여름을 통해 앞으로 나아 간다

겨울이 오면, 이제까지 온다 그래서 저는 그것에 감사 드리고 싶습니다 당신은 비디오, 코드 등을 얻을 수 있습니다 online deeplearningmit

edu 대단히 감사합니다

Machine Learning Basics with ml5js

안녕하세요 탐험가와 오늘 다른 비디오에 오신 것을 환영합니다 기계 학습의 기초를 배우고 ml5js

org라는 사이트에 대해 이야기 할 것입니다 이러한 기계 학습의 기초에서 우리는 먼저 노드를 설치해야하며 nodejsorg와 nodejsorg에서 찾을 수 있습니까? 당신은 오랫동안 지원 버전 인 LTS와 최신 버전을 사용하십시오 사용하지 않는 것이 좋을 경우 다운로드하십시오

모든 극단적 인 기능은 nodejs 서버의 새로운 기능 만 사용할 수 있습니다 또는 설치를 다운로드하면됩니다 당신은 실제로 당신이 얻을 수있는 자료를 가져올 수 있도록 자식이 필요하다 github에있는 zip에서 가져온 소스이지만 그렇게하고 싶지 않으면 저장소 아래 디스크에 당신은 해당 디렉토리를 입력하고 npm install을 실행합니다

이 문제를 해결하려면 모든 의존성을 설치해야합니다 우리는 노드 서버와 노드가 필요합니다 우리는 cors와 cors를 가질 필요가 있기 때문에 서버가 필요합니다 그러면 다른 서버에서 소스를 가져올 수 없습니다 그것들은 같은 출처에서 온 것을 요구하지 않습니다

그래서 그것은 보안입니다 게임이 아닌 다른 서버에서 물건을 가져올 수 없다는 것을 측정하십시오 그래서 우리는 우리가 가져올 수있는 cors를 처리 할 수있는 서버가 필요합니다 이미지를 가져오고 다른 리소스를 가져 와서 좋은 방식으로 처리합니다 ml5js의 온라인 리소스는 예제를 통해 실제로 작동합니다

그렇지 않으면 실제로 이미지를 가져 와서 설정할 수 없습니다 이 코드는 매우 간단합니다 cors가있는 익스프레스 서버입니다 완전히 들어가는 것은 아니지만 이것을 공유 할 것입니다 리소스 또는 줄에있는 소스 그래서 우리는 우리가 가져올 수 있도록 몇 가지 설정을 가지고 이미지 및 소스가 있으므로이 서버를 시작한 다음 계속하겠습니다

ml5js의 API 구현으로 몇 가지 예측을 수행 할 예정이며 API는 내가 실제로 이것을 만들 때부터 매우 진화하고 있습니다 오늘까지 실제 예제 코드가 바뀌었고 실제로 슬라이드 쇼를보고합니다 자신의 문서가 동기화되지 않았고 그 오류가 그때부터 그들은 API를 변경 했으므로이 슬라이드를 업데이트해야합니다 그래서 당신은 뭔가 더 많은 것을 얻습니다 그래서 당신이 원한다면 정말로 당신이 사이트에서 붙여 넣기 코드를 복사하여 작동하는지 확인하십시오

실제로 작동합니다 API를 많이 사용하기 때문에 API라고 생각합니다 버전 008 내가 이것을 촬영하는 시간으로하지만 그 여전히 활발한 개발을하고 있으므로 소스를 얻으려면 HTML에 스크립트 태그를 설정해야합니다

unpackaged 및 unpackage는 실제로 호스팅되는 것을 가져가는 서비스입니다 github에서 패키지로 사용할 수 있도록하여 패키지되지 않은 상태에서 ml 5를 얻습니다 그런 다음 이미지 태그를 설정하고 하나의 이미지를 시작 이미지로 설정하므로 고양이의 12,500 이미지를 믿는 이미지 디렉토리가 있으니 그 중 하나를로드 한 다음로드 할 때 내 onload 이미지를 실행할 준비가됩니다 그게 내 행동 예측을 할거야 결과를 얻으면 여기에 결과를 다시 넣을 것입니다

결과는 우리가 실제로 그것이 이미지에 있다고 생각하는 것을 말할 것입니다 자신감 확률은 내가 실제로 그것을 올바르게 예측할 가능성이 얼마나 높습니까? 우리는 js에 분류자를 설정해야합니다 이것은 이미지 분류 자입니다 모바일 네트워크와 모바일 네트워크는 매우 일반적인 네트워크이며 많은 이미지가 모바일 네트워크를 사용하여 마지막으로 벗어납니다 레이어를 사용하여 고유 한 분류 자 ​​등을 만들지 만 매우 다양한 네트워크를 사용합니다

이미지가 많으며 많은 것을 예측할 수 있으며 우리가 일을 예언하는 데 아주 능숙하지만 우리를 시작하는 그물을 짜내십시오 이 모바일 네트워크를 시도하고 이미지 준비가 완료되면 이미지를 가져옵니다 우리의 분류기로 밀어 넣고 예측 기능을 사용하면 결과를 얻을 수 있습니다 우리를위한 결과는 사실 이미지 집합이므로 하나의 이미지가 아닙니다 첫 번째 결과를 가져 와서 클래스 이름을 가져다가 넣습니다

결과 내면의 텍스트와 최대 네 개의 숫자를 가진 확률 I 확률 내부 텍스트를 넣을 것이고 이것은 최선의 예측을 취할 것입니다 그들이 정렬되어 있기 때문에 내가 실행하는이 작은 기능을 가지고 있기 때문에 5 초마다 실제로 새 이미지를 요청하도록 저장 됨 그래서 우리는이 함수를 다시로드 할 5 초 만에 마지막 시간을 봅니다 그것은 이미지 태그를 가져올 것입니다 0 사이의 임의의 숫자를 얻을 12500 그리고 그 이미지를로드 할 것입니다 언급 된 여러 시간에 ml5jsorg는 if 당신은 이것으로 들어가 그들의 리소스와 코드를보고 시도하고 싶다 이 자신 또는 밖으로 내 코드를 시도 할 수 있습니다

여기에 제 예제를 보겠습니다 그러면 이것이 제 분류 자이고 이것은 실제로 특정 코드에서 가져온 것이지만이 리로드 함수를 추가했습니다 그래서 나는 매 5 초마다 새로운 고양이를 얻습니다 그리고 여기에 우리는 그것이 Egyptian cat 이집트의 고양이 그것은 많은 이집트의 고양이 다 그러나 나는 아주 자신이있다

그것이 이집트의 고양이 다 그리고 그것은 샴 사람이다 그리고 나는 정말로 이해할 수 없었다 그것은 Siamese이었다 그래서 Siemes가 추측하는 꽤 좋은 직업을 거기에서했다 그것은 단지 그들이 백인이기 때문에 그것이 개라고 말한 것입니다

페르시아어 고양이 네, 페르시아어 고양이와 얼룩덜룩 한 얼룩덜룩 한 고양이가 될 수 있다고 생각합니다 당신이 이미지를 볼 때 볼 수있는 것은 꽤 흥미 롭습니다 실물을 예상 할 때 예측이 매우 빨라졌습니다 이것은 꽤 흥미 롭습니다 그리고 우리는이 자원을 여기에서 볼 수 있습니다

당신은이 ml5에 대한 안내서를 시작했습니다 실험을하고 있습니다 여기 당신은 다른 일을하는 법과 당신이 할 수있는 일들을 조사 할 수 있습니다 기계 학습으로 할 수 있으며이 리소스는 내 예제 코드가 API를 업데이트했기 때문에 실제로 깨 졌다고 말했다 당신이 일어나서 달릴 수있는 곳으로 만들기 위해 열심히 노력하고 있습니다

기계 학습이 매우 쉬우 며이 분야에서 몇 가지 발판을 마련 할 수 있습니다 기술을 배우고 실제로 기계 학습에 대해 많이 알고 있으므로 이 리소스를 사용해보고 싶다면 정말 좋은 리소스입니다 여기에 이것을 올려 놓은 대학이 뉴욕 대학교 저는 오늘 여러분이 이 리소스를 좋아하거나이 비디오를 좋아하거나 질문이나 의견이 있으시면 이 비디오가 마음에 드시면 아래로 내려주세요 친구와 동료가 아직 가입하지 않았다면 그렇게하십시오 다음 비디오에서 만나길 정말로 바랍니다

How A.I. Works? Machine Learning Basics Explained! Simple Visual Example!

나는 사이의 차이를 학습 인공 지능 시스템을 말하는거야 그들과 어떻게 실제로 또한 당신에게 간단한 시각적 인 예에 보여주는 작업 설명은 계속 지켜봐 주시기 바랍니다 아니 세 가지 별도의 장치이 하나의 장치는 스스로 그런 다음 더 나은 사람들과 연관 그가 거부 할 수 없습니다 나는 그에게 제안을 할 거 있어요 안녕하세요 모두 아이 엠 샘이 우리가 얘기 그래서 오늘 Entiversal입니다 그 방법의 차이 무엇 학습 인공 지능 기계 실제로 일을하고 또한 당신에게 간단한 예를주고 않는 희망 것이다 당신을 표시하고 당신에게 차이 역학의 더 나은 이해를 제공 그 사이에 모두의 첫 번째는 당신이 아니에요 아마 경우 사실과 시작 일을 기계 학습 모든 것이 당신에게 매우 추상적 인 소리 그러나 나는 약속 거기에 전혀 그것에 대해 추상적 아무것도 그것은 복잡해 보입니까 첫째하지만 당신은 그것으로 얻을 때 그것은 단지 더 명확 될 것이다 것 모든 것이 아주 기초적인 수학을 기반으로하지만, 오늘날 우리는 걱정하지 않습니다 그것에 대해 많이는 뒤에 아이디어에 대한 더 왜 그렇게 처음 작동합니까 모든 인공 지능과 기계 학습의 – 큰 화두입니다 바로 모든 사람들이 사방을 사용하고 있지만 실제로 무엇을 의미합니까 그 차이의 기계 학습이 실제 이론이 무엇이고 그들이 그렇게 자신을이었다 방식으로 만들어진 수학적 알고리즘 그들은 서로 다른 상태를 위해 미리 프로그램하지 않지만 그들은 경험을 바탕으로 배울 인공 지능 또는 AI 시스템은 또한 포함 할 수있는 소프트웨어입니다 하드웨어 시스템은 안드로이드처럼 우리는 실제로 기계 학습을 사용하는 것이 여기 참조 그것은 다른 인터페이싱 a를 많이 가지고 있도록하지만, 분명히 시스템의 일부 다른 역학과 기계 학습의 많은 같은 시스템의 한 부분입니다 뇌 방식의 밖으로 가장 중요한 부분은 나에 대해 이야기하자 기계 학습은 실제로 중요한 이유 당신은 당신이 알고 볼 수 우리가 과거에 사용하는 소프트웨어의 대부분은 당신은 소프트웨어의 대부분을 알고 우리는 여전히 바로 그렇게하자가 미리 프로그램 된 미국을 기반으로 사용 모든 프로그램은 다른을 많이 가지고 있다고 가정 그것의 상태와 입력에 따라 당신은 할 수 알고 그것의 내부와 종류의 기반 키보드 일 또는 수 마우스 수 계산 결과는 다른에 미리 프로그램 전환을 갖는다 그래서 모든 상태가 사전 프로그램 및 입력을 기반으로 미국과 그것은 분명히 가야하지만하는 자체가 알고있는 프로그램을 출력 그게 문제는 너무 많은 입력과 너무 큰 차이가있는 경우이다 변수는 실제적으로 불가능하게된다 가능한 모든 조합에서 프로그램하고 분명 상태를 그들에 대해 너무 기계 학습 아이디어 들어오는 곳 즉, 우리가하지 않는 것입니다 뒤에 우리는 세 가지를 계산하고 싶었 말한다면 사전에 그래서 소프트웨어 프로그램 플러스 네 우리는 바로 그래서 우리는 그것을 다른 종류의 줄이 일곱의 그것을 말하지 않는다 그 훈련하고 있습니다 이전의 경험을 바탕으로 다음 계산과 지금은 시작 기계 학습에 분명히 일곱이고 괜찮 이야기 시스템은 잘하지만 자신의 미리 프로그램들보다 훨씬 더 있습니다 아이디어는 훈련을하고 시간에 실제 가능성으로 훨씬 더 나은 성능을 훨씬 더 분명 많은 일을 더 복잡한 작업을 왜 기계 학습 및 인공 시스템을 수행 진실들이 특히 필요가있는 모든 갑자기 잘 아주 대중적 단지 지난 10 년간하고 그래서 아주 아주 큰 연산 능력을 훈련 특히 지난 몇 년 동안 실제로 가능하게하고 있어요 전력을 계산하는 것은 충분히 싼이되었다 그래서 우리는 할 수 실제로 충분히 강력한 나를 그냥 그 요약하자 – 그래서 우리는 실제로 매우 실용적인 방법으로 사용할 수 있습니다 약간 왜 우리가 어떤 종류의가 있다면 우리가 정말 잘 학습 기계를 필요합니까 예를 들어 어떤 상태 당신은 당신이 알고있는 리모컨을 알고 당신이 경우 당신이 당신의 TV가 켜지지 할 필요가 알고 있지만 우리는 문제 등이있는 경우이 버튼을 클릭합니다 내게는 이미지를 오른쪽으로 분류하자 이미지 때문에 모든 픽셀을 픽셀을 많이 가지고 인자 또는 변수 또는 입력이 가능하고 모든 다른 입력 보유 하나 개의 이미지도 가능성이 수천 수백만 또는를 가질 수 있다는 것을 의미 기능 다른 값을 가지고 우리가 취할 수있는 다른 인자의 수십억 고려 수천 수백만의 서로 다른 이미지가 있다는 것을 바로 우리가 같은 일의 두 사진을 찍을 경우에도 그들은 그렇게 동일하지 않을 것이다 우리가 캡처 경우에도 물 같은 병에게에있는 두 개의 사진을 알고 픽셀 수준은 그들이 동일하지 않습니다 그래서 프로그램에 실제적으로 불가능 우리가 프로그램을 제공 할 때 다른 모든 조합은 그래서 무엇을 알고 객체는 실제로 어디 기계 학습, 인공의 것입니다 지능은 그래서 뒤에 생각이 무엇인지 잘 당신은 우리로 알고 활동하기 시작 모든 다른 사진에서 볼 수있는 뇌는 거기 기본적 점이다 가장 진보 된 AI 시스템을 사용하여 기계 학습 호출하기 때문에 생각 신경망은 신경망 방식을 모방하려고 우리 자신 웜 및 그들은 그것의 영상 분류에 정말 좋은 왜 분류 일 석회화에서 또한 입력 분류 ​​일종의 그건 우리 스마트 폰에 얼굴 인식에 사용하거나 구글을 알고 그 우리는 우리가하지 못했습니다 그래서 예에 우리의 비전을 바로 그래서 만약 검색 입력 정말 실제로 당신이 무슨 생각인지 어떻게 알았지 생각 나 예를 들어, 당신은 당신이 알고 어떻게 물 한 병에서 찾고 어떤 종류가 있으므로 물 병은 실제로 물 권리의 병입니다 arunoda에 대한 모양에 대한 패턴과 특징 우리는 어떻게 당신이 실제로 그 병이 있다는 알 수 있도록 자료를 인식하지만, 실제로 소프트웨어에서 잘 대답은 뉴런의 네트워크와 함께 것을 모방 다시 우리의 비전을 바로 그래서 우리는 우리 눈의 빛을 감지 물 병은 눈의 뒤쪽에 빛이 바이오로 변환 을 통해 우리의 뇌를 통해 전송되는 전기 신호 뉴런은 그래서 당신은 어떤 종류의 모든이 작은 도트 여기 신경 세포를 볼 수 있습니다 필터는 입력이 통해 간다 알고 다음 신경 세포와는 나오고 무엇을 제공하는 것은 약간은 통해 변경 신경 세포로 필터링 아이디어는 우리가 유일한 의미가 제거되도록 우리가 실제로 생각하는 우리가 무엇을보고 이해하고 우리하지 않는 정보 강화하고 그 기능의 의미있는 정보를 유지하고 우리가 실제로 생각 패턴 후 우리의 앞에 무엇이 우리에게 아이디어는 입력이 정보는 우리의 뇌에왔다하는 시간입니다 우리가 의미있는 패턴을 무력화하고 한 방식으로 변경 기능 그리고 우리의 뇌가 해당 데이터베이스에 보이는 오 이러한 기능을 말한다 우리는 병을보고있는 바로 그래서 예를 들어 물 병의 레이블이 아이디어는 그래서 우리가 그것을 가지고 물과 타다 우리는 사실 만에 재 프로그램하지 않는다 변경하는 방법을 몇 가지 종류의 우리가 필요로하는 의미있는 정보를 얻을 수 있습니다 그는이 기계 학습의 생각입니다하지만 난 아직도 이해 바로 아니라 매우 추상적 인 내가 신경 세포에 대해 생각을하고 싶은 소리 단지입니다 종류의 I 필터를 말했지만 필터가 너무 무엇을 의미합니까 당신은 입력이 예를 들어 우리는 신경 세포에서 보이는 것 – 예를 단지 숫자 당신은 알고있다 단지는 호출 번호 캔 액션이다 무게와 우리가 곱하면 수 당신은에 와서 입력을 알고 그런데 신경 세포는 신경 세포로 데이터는 분명히 다른 번호입니다 아이디어는 그들이 더 의미있는 정보를 가지고하고있는 그것의 제공 나는 당신이 볼 수 있도록 여기 왼쪽에 가능한 한 간단하게 만들려고 노력했다 하나 개의 숨겨진 층의 매우 간단한 신경망 그렇게 여기에 코드의 우리 우리는 경우 원하는 경우 사람들은 예를 들어, 기능의 일종 그래서 우리의 입력이 우리 여기에 같은 숫자의 다른 사진을 바로 그래서 모든 숫자가 상상 한 다른 그림은 그래서 우리는 우리의 네트워크 우리의 소프트웨어 분류하고 싶습니다있다 모든 그림은 그래서 그림은 우리의 소프트웨어로 전환되고 우리는 우리에게 싶습니다 그것은 1 2 3 또는 4의 경우 바로 그래서 우리가 1 2 3 4 그래서 예를 들어 여기에 있다고 가정 해 봅시다 그것은 하나가 여기 경우 네 그럼 세의 2의 하나의 출력 있음이 뉴런 출력 1이며이 있다면 2 뉴런 1 출력하고 있는지 하지가 출력 0 그래서 우리는 실제로 우리가 잘 할 수있는 방법 우리의 이미지를 촬영하고 우리는 우리가 여기 그래서 어떤 기능의 무리에 내려 스트립 이 기능 매트릭스 그래서 기능이 잘 무엇을 의미합니까 특징이라고 그것은 우리가 이미지가 말했다 있도록 우리의 입력 기능의 단지 일종이다 우측 화소마다 화소의 수집은, 예를 들면 값 일종의 갖는다 10 바로 그래서 여기에 우리의 기능은 X가 될 수 단지 X 10은 그래서 될 수 될 수 있습니다 당신이 알고 너무 그것이 바로 백명 수 2의 전원이 어떤 종류의 수 그것은 우리의 입력 단지 함수의 그 권리처럼 X 또는 무언가의 사인 생각에 우리가 가지 때문에 상관없이이 입력의 종류에 상관없이입니다 이미지 우리는 우리가 같은 기능을 가지고 그 디자인 맵 행렬을 만들 수 있습니다 기능은 유일한 있도록 변화는 그래서 여기에 대한 변수 그 자체입니다 예를 들어 우리는이 다섯 개 가지 기능은 우리의 네트워크와 그들에 대한 향후 5 개 기능을 가지고 있습니다 같은 어떤 종류의 이러한 뉴런에 곱 우리는 그들이 호출하고 말했다 이름에서 알 수 있듯이 무게와 무게는 얼마나 중요한 결정하려고 여기에 예를 들어 우리가 하나가되도록 기능이며, 우리는 기능의 무리가 즉 실제 네트워크이었다 권리 경우 분명 예를 천에 대해 갖고 하나의 이미지에 대한 기능은 그래서 우리는 어떻게 하나 하나를 이해하려고 노력합니다 그 하나 그것은 분명히 더 중요한 경우 기능은 실제로 우리에게 그것이 있어야 큰 더 큰 무게는 다음과 우리는 서로 다른이 이 아 사실이라면 우리에게 말할 것이다이 새로운 하나의 무게가 너무에서 ofor 3/8입니다 다른 벡터의 곱셈을 많이가 무엇인지 우리가 말 매트리스와 나는 조금 더 복잡로 얻을 수 있습니다 여기에 알고 매트는 있지만, 그러나 DJ의 중요한 새로운 하나의 필터이며, 우리는 입력이 기능 어떻게 든 우리의 변수 입력을 설명하고 내가 당신에게주지 그 여기에 간단한 예는 여기에 그래서 나는 근처에있는 아주 간단한 방법을 시뮬레이션 한 회귀 그래서 기본적으로 그것은 당신이 할 수있는 가장 간단한 기계 학습의 당신은 실제 언어의 많은 부분을 신경 쓰지 않는다하지 않습니다 알 수 있도록 여기 않습니다 서면 당신이 정말로 그것을이를 얻기 위해 더 중요한 문제가되지 않는다는 것을 알고있다 그래서 여기에 인도의 난에서 함수의 권리가 그 X n은 그래서 그 변수가 있는지에 따라 달라집니다 그리고 난 항상 동일 유지 하나는 확인 여기 우리의 기능을 볼 수 있으며이 여기 하나 인 권리로 다시 여기 있도록 그래서 기본적으로 우리가 가지고있는 유일한 변수는 X 괜찮 및 그것은 우리가 등등 X가 여기에 당신이 알고 코사인이있는 기능이고 그것은 그 내 입력 할 수 있도록 내 입력을 그래서 여기 정말도 중요하지 않습니다 내 훈련 세트에 대한 권리 변수는 우리는 우리가 우리를 훈련 할 필요가 말했기 때문에 교육의 질 달라스 알고리즘은 우리가 필요로하는 가중치를 결정한다 우리가 입력으로받는 기능은 실제 일이 무엇인지 우리에게 어떻게 그건 바로 지금 여기에 내가 할 가장 중요한 일이에 우리가 찾고있는 내 입력 X 바로 여기에 그냥 마이너스 1과 0 사이의 권리 정도 200 점을 I 영하 1가 너무 마이너스 099 0 9 8 점 때문에 마이너스 0 200 점 사이를 여기 내 기능 I을, 그래서 여기까지 0에 내 레이블 또는 모든 결과를 만들 X에 대한 내 훈련 값에 넣고 나는 때문에 분명히 일부 소음에 추가 함수가되지 않도록이 소음의 일종을 가지고 항상 더 리얼하게 동일하고 여기서 예를 들면 표시하는 함수가 이론적 인 바로하지만 이미지에 무엇이 우리에게 모든 픽셀의 함수 분명히 그것은 아주 아주 복잡하고 우리가하지 않는 매우 이론적 맞아 실제로 기능이 무엇인지 알고 있지만 위해 여기에 간단한 예제를 만들기 위해 우리는 우리가 그래서 우리는 실제로 우리의 할 수 있는지 실제로 알고있는 기능을 라벨은 라벨은 기본적으로 우리의 기계 정답이기 때문에 알고리즘을 학습보다 실제 예를 들면 작업을 사용하는 것입니다 상황 유체 분류 우리는 이미지의 무리를 가지고 우리가 원하는됩니다 이미지가 그것에 켓이있는 경우 인식하는 우리의 기계 학습 알고리즘을 가르쳐 바로 그래서 우리는 모든 임의의 이미지를 알고 만 개 이미지를 가지고있다가 아이들 만 개 이미지는 그래서 우리는 괜찮 말할 것이다 고양이가 기존의 이미지에 있습니다 그 사람이 아니에요 말하는 고양이들이 무장 고양이있는 모든 이미지의 그래서 사람들은 우리의 레이블은 우리의 레이블은 여기에 실제 상황에있을 것입니다 보관 우리의 입력 변수 값 여기서 I와 함수의 실제 값 즉 400 점으로 1을 뺀 사이에 1 그래서 내 입력 설정 실제 데이터를 만들 그래서 마이너스 1과 0 내 실제 데이터 사이의 값으로 훈련이 나는 것 에 예측으로 인해 끝에 영하 1과 1 사이에있을 것이다 확인하고자 아이디어는 우리의 기계 학습 알고리즘 또는 AI 시스템으로 할 수있다 바로 올해로 보이지 않는 일의 기초에 결과를 예측하기가 있다면 때문에 데이터에서 우리는 이미 그것이 무엇 아이디어에 불과하다하는 임의의 데이터의 모든 종류 알고 알고리즘은 내가 여기 U21을 포함 내을 왜 그렇게 그건 그것을 예측할 수 보지있다 마이너스 1과 1 사이의 실제 참값 나의 현명한 또는 내 레이블을 알고 실제로이를 사용했고 경우에 나는 단지 우리가하면 확인할 수 있습니다 그렇게 우리 예측은 오른쪽 또는 당신이 실제로하지 않습니다 실현 상황에서 잘못 당신이 다음 단계는 우리의 디자인을하고 여기에 예측하고자하는 권리가있다 매트릭스 그래서 우리의 디자인 매트릭스는 모든 X 4 여기 우리의 기능으로 구성되며, 그래서 여기에 예를 뺀 1 나는 모든 입력 계란 두 가지 기능을 가지고 있습니다 그래서 나는 일이 있고 예 4-1 제 2 개 기능은 1이 될 것이다, 그래서 나는 DX 자체가 마이너스 1 0 내가 함께 행렬을 1 0 등등에있을 것입니다 내 모든 (200) 마이너스 1 0과 200 와트 그리고 그렇게 내 훈련 디자인 매트릭스의 사이 점 우리는 우리가 마이너스 1과 0 사이의 값에 훈련하는 말했듯이 사람들이 있습니다 내가 그래서 내 예측 설계 행렬을 여기에서 설정 한 훈련을위한 기능 나는 그것이 예측을하고 싶은 실제 값은 우리가 그는 말했다 사이에서 1을 뺀 여기에 400 사람과 다시 한과이다 우리가 말했듯이 실제로 내 알고리즘을 훈련 포인트는 그렇게 훈련 무엇 우리는 사실이 말했듯이 단지 모든 기능에 대한 무게를 계산 우리는 내가 아니라 무게의 아이디어를 계산 어떻게 기다릴 필요가 그래서 여기 있습니다 가중치는 우리가 입력의 어떤 종류에게 기능의 우리의 디자인 매트릭스를 가지고 있고 우리가 어떤 종류의를 찾으려면, 그래서 우리는 출력의 어떤 종류를 가지고 우리 숫자를 잘 가중치가 가장 작은 나타냅니다 단지 숫자 말했다 완벽한 값에서 가능한 오류는 그래서 더 간단입니다 만들려면 예를 들어 우리는 진정한 권리의 입력을 가지고 우리의 기능은 단지 숫자 2이고 우리는 우리의 Y 또는 명백히 4 우리의 정답 우리의 레이블이 사실 × 2 후 우리의 다음 4 있기 때문에이 예제 우리의 방법은 사실 일 필요 교육 날짜는 3이고 우리의 레이블은 예를 들어 12 그래서 그것에 대한 무게해야 수 4 3 (12)은 그래서 4해야하지만 우리는 모든 기능에 대해 말했듯이 우리는이 하나 개의 무게는 그래서 우리는 최적의 무게를 찾아야 당신 최적의 무게 번 잘 그것은 최소한의 오류가 2 개, 단지 네 권리 세 3했다입니다 우리는 서로 다른 기능이있을 때 중간 분명히 우리는 다른 수 있습니다 다음 예를 천위한 훈련 세트에 대한 비율 다른 X 우리는 우리가 실제로 최적 값을 찾을 수의 방법 쉽게 그것은 우리가 더 펜로즈 역행렬과라고 뭔가를 잘 당신은 다하여 그 뒤에 수학의 꽤 많이 알고 있지만, 아이디어는 때입니다 우리는 우리의 라벨 또는 오른쪽 결과 응답 우리 곱한에 그 우주를 취할 실제로 우리가 다음 우리를 얻기 위해 우리의 최적의 무게를 얻을 우리의 무게를 얻을 우리가하는 일 예측은 우리의 예측 입력에 의해 우리의 가중치를 곱입니다 디자인 매트릭스 여기 결과이며, 나는 우리의 교육 빨간색으로 표시 한 라벨과 당신은 그들이 하나를 뺀 제로 사이에있어 볼 수 있듯이 나는 표시 한 우리가 실제로없는 현실 세계에서 정답은 내 실제 데이터 노란색 즉, 그러나 여기에서 우리가 실제로 우리의 기능을 알고 있기 때문에 우리는 우리가 할 수있는 그래서를 표시 할 수 있습니다 우리의 기계 학습 알고리즘이 실제로 일을하거나하지 않은 경우 참조 그리고 파란색 선 우리의 예측입니다 당신은 실제로의 매우 볼 수 있도록 물론 이렇게 설정 우리의 훈련을 위해 훈련을받은 나는 그것이 거의 정확히 말할 것 중간 당신이 다음 정확한 가운데 하나를 원하는 노이즈 권리가 있기 때문에 이 실제로 당신이 볼 수있는 위해 훈련되지 않은 데이터는 우리의 노란색 그것은 하나 조금이고 그래서 정확 아니지만 우리는 그것을 볼 수 실제로 추세를 얻고 그것은 우리가 실제로이 꽤 꽤 잘 보인다 에 훈련 된 우리의 아주 아주 간단한 기계 학습 알고리즘에 성공 지금 우리는 당신이 그것을 다시 2 1에서 값 입력을 알 수 있도록 데이터를 인식 우리는 내가 다른 예 곳이 여기를 인식 할 수 있습니다 기능의 실제 중요성과 큰 트레이드 오프 사이에 대해 이야기하기 실제로 우리의 알고리즘 매우 있도록 설정 한 훈련을 위해 잘 훈련 만들기 실제로 아주 잘 데이터에 반응하는 방법을 잘 알고 매핑 사용자들은 그것은 보이고 실제로 일반 데이터에 매우 잘 동작하기 때문에 그것을 일반화 할 것 하지만 기계 학습에 대한 내 두 번째 비디오에서 그것에 대해 이야기 할 화면의 오른쪽 상단에 카드 섹션에 있어야합니다 나는 당신이 즐길 희망 흥미로운이 비디오를 배우고 뭔가 나에게 어떤 질문을하고 Entiversal에 계속 지켜봐 주시기 바랍니다!