From The Brain To AI (Neural Networks | What Is Deep Learning | Deep Learning Basics)

이 시리즈의 마지막 비디오에서 깊은 차이점을 논의 학습 및 기계 학습, 방법 및 방법 딥 러닝 분야는 공식적으로 태어나고 주류 인기 이것의 초점 비디오는 인공 신경에있을 것입니다 더 구체적으로-네트워크 구조

독수리, 전투기 동안 이 두 별개의 실체는 모두 수행 동일한 작업, 비행, 그들이 달성하는 방식 매우 다릅니다 전투기 매우 전문적이고 공학적입니다 매우 구체적인 기계 작업과 그 작업을 극도로 실행 잘 독수리, 생물 시스템 확실히 훨씬 더 복잡합니다 다양한 방법으로 가능 일반화 된 작업 이 비유는 차이점과 많은 유사점 우리의 두뇌와 딥 러닝 시스템

그들은 둘 다 임무를 수행 할 수 있지만 패턴 인식의 두뇌는 매우 복잡한 일반 시스템 다양한 작업을 수행 할 수 있습니다 딥 러닝 시스템은 설계되었지만 매우 구체적인 작업에서 탁월합니다 에 딥 러닝을 더 잘 이해하고 이 비유와 인라인 유지 비행, 기본으로 돌아가 봅시다 에 대한 한 시스템의 기본 원칙 이해하기가 훨씬 쉽다 더 높은 수준의 이해 그 응용 프로그램 및 기능 상기 시스템 우리가 비디오에서 논의했듯이 과거에 딥 러닝은 연결 분야, 부족 목표가있는 머신 러닝 뇌를 디지털 방식으로 재구성합니다

이제 우리가 반드시해야하는 두뇌를 디지털 방식으로 재구성 먼저 가장 간단한 디지털 재구성 뇌의 구성 요소, 뉴런 이것은 뉴런의 예술적 표현, 다극 뉴런이 정확해야합니다 있다 뉴런의 세 가지 주요 구성 요소 : 1) 소마, 이것은 '뇌'* 메타 *입니다 정보 처리 센터를 말하십시오 세포체로 구성된 뉴런의 그리고 핵 2) 축색 제, 이것은 길다 전달하는 뉴런의 꼬리 세포체와의 정보

3) 수상 돌기, 이것들은 뉴런에서 분기 팔 다른 뉴런에 연결하십시오 우리가 논의한대로 Neuromorphic에 대한 이전 비디오에서 계산에 따르면 뇌는 천억이 넘습니다 100 조 이상의 시냅스를 가진 뉴런 시냅스와 연결 다른 뉴런 우리가 생각한다면 극도로 감소하는 관점, 우리 두뇌를 하나로 간주 할 수 있습니다 거대한 신경망 점점 더 많은 것을 알지 못합니다! 따라서 왜 연결 주의자들은 시도에 너무 단단합니다 뇌를 재구성하고 긴급 속성이 등장합니다! 이제 물러서서 개별 뉴런, 이것은 우리 중 하나입니다 뉴런의 첫 사진 안으로 그려지다 19 세기 후반 스페인의 해부학자에 의해 산티아고 라몬이 카할 그는 소개 될 수있는 얼룩을 사용했습니다 조직에 현미경을 사용하여 그가 본 것을 그립니다

이제 당신은 여기에 무엇을 볼 우리가 방금 논의한 것은 세포체, 긴 꼬리와 수상 돌기 서로 이제이 그림을 뒤집어 봅시다 거꾸로하고 추상적으로 매핑 오른쪽에있는 뉴런의 구성 요소 측면 먼저 우리는 소마를 원으로 표시 한 다음 긴 줄이 오는 축삭 뉴런에서 마지막으로 여러 줄로 표현되는 수상 돌기 뉴런으로 연결됩니다 보시다시피 여기, 우리는 기본적인 방법을 목격하고 있습니다 딥 러닝 신경의 구조 89 00 : 02 : 52,670-> 00 : 02 : 56,360 그물이되었습니다! 에 대한 토론을 시작하려면 뉴런이 작동하는 방식으로 수상 돌기는 입력으로 간주 우리의 뉴런에 몸에서 수상 돌기 그들의 전기 활동을 찾으십시오 끝 그것이 다른 것에서 오는지 여부 뉴런, 감각 또는 다른 활동 그 신호를 세포체로 보내십시오

그만큼 그런 다음 soma는 이러한 신호를 받아 시작합니다 그들을 축적하고 특정 신호 임계 값, 축삭은 활성화, 시스템의 출력 본질적으로 매우 간단한 방법으로 뉴런의 정보 처리는 그냥 물건을 추가하십시오 그리고 그것을 바탕으로 하나 수상 돌기 활동을 축삭 활동의 수준 다시 말해, 더 많은 수상 돌기 더 자주 그들은 축삭이 얼마나 자주 활성화되었습니다 이제 우리는 기능의 추상적 이해 뉴런의 시스템에 더 추가합시다 신경망을 형성하기 시작합니다

같이 앞에서 언급 한 바와 같이 뉴런을 시냅스라고합니다 수상 돌기, 하나의 입력 뉴런은 축삭에 붙어 있습니다 다른 사람의 출력 라몬으로 돌아 가기 카잘의 첫 번째 뉴런 그림 당신은 그가 보고이 작은 것을 볼 수 있습니다 수상 돌기의 마비 여기가 다른 뉴런의 축색 돌기는 현재 뉴런의 수상 돌기 측면에서 우리의 추상적 인 그림의 우리는 이 연결을 원형으로 나타냅니다 마디 축색 돌기는 수상 돌기에 연결될 수 있습니다

강하게, 약하게 또는 그 사이의 어떤 것 지금, 우리는의 크기를 사용합니다 연결 노드를 나타내는 연결 강도, 연결 입력이 얼마나 활발한가 뉴런 연결은 출력 뉴런 수상 돌기 우리는 또한 이 연결 강도에 값을 할당하십시오 0과 1 사이, 1은 매우 강하고 0에 가까워지고 있습니다 앞으로 확장 될이 가치 비디오 참조 연결 무게로 보시다시피 우리는 더 많은 뉴런을 추가하기 시작합니다 많은 다른 입력으로 흥미로운 뉴런은 수상 돌기에 연결될 수 있습니다 각각 하나의 출력 뉴런 연결 강도가 다릅니다

이제 연결되지 않은 모든 것을 제거합시다 수상 돌기 및 또한 노드를 제거 우리는 연결을 나타내야했다 강도, 단순히 두께를 보여 무게를 나타내는 선의 그 연결 이제 뒤집어 가로로 다이어그램을 보면 현대 딥 러닝의 시작 신경망 아키텍처 이후 이 비디오의 시작, 우리는 우리에서 갔다 수조의 엄청나게 복잡한 뇌 연결과 미묘한 운영과 상호 연결성 신경망을 이해하기 간단 모델 우리 시스템은 여기 바로 그 모델입니다 그

뇌에서 신경으로 네트워크는 매우 축소 과정입니다 그리고 사이의 진정한 관계 생물학적 시스템과 신경 네트워크 은유적이고 영감을줍니다 우리의 두뇌, 제한된 이해 우리는 그들 중 엄청나게 복잡하다 수조 개의 연결과 많은 다른 유형의 뉴런 및 기타 병행하여 작동하지 않는 조직 그냥 같은 인접 레이어에 연결 신경망 주제에 다시 돌아와 우리가 사용하는 용어 이 네트워크를 설명하십시오, 그것은 사실입니다 그들은 여전히 ​​매우 유용합니다 큰 표현을 도출 마지막에 언급 한 데이터 양 이 시리즈의 비디오 그리고 지금 우리는 이것들의 구조가 어떻게 보 였는지 네트워크가 개발되었습니다 이 표현은 층

출력 노드를 생각하는 방법 그들이 노드의 합이라는 것입니다 그들을 강하게 활성화시키는 가장 강한 무게의 연결 예를 들어 5 개의 입력이 있다고 가정 해 봅시다 문자를 정의하는 노드 : A, B, C, D 그리고 E이 경우 출력 노드는 ACE에 의해 정의됩니다 여기 있습니다 저급에서 목격 표현, 개별 문자 높은 수준의 표현 단어를 포괄하고 계속 가면 에, 문장 등-이 단순한 예는 자연어의 기초이다 가공

편지를 넘어서 방법론은 모든 유형의 이미지의 픽셀 값에서 입력 오디오의 이미지 인식 연설을위한 연설의 빈도 더 복잡하고 추상적 인 인식 영양 정보와 같은 입력 의료 병력은 예를 들어 암의 가능성 지금 우리가 앞서 기 전에 더 높은 수준의 예측으로 확대 더 복잡한 초록의 능력 딥 러닝 시스템의 응용 이 다음 동영상 세트에서 시리즈, 우리는 포괄적 인 과정을 거칠 것입니다 예를 들어, 많은 새로운 것을 소개합니다 직관적 인 방법으로 용어와 개념 노드 네트워크의 이해를 돕기 위해 작업 그러나 이것이 당신이 가지고 있다는 것을 의미하지는 않습니다 더 배우기를 기다립니다! 원한다면 딥 러닝에 대해 더 배우고 실제로 현장에 대해 배우는 것을 의미합니다 이러한 인공 학습 알고리즘 뇌에서 영감을 얻어 기초 빌딩 블록 퍼셉트론, 멀티 레이어 확장 네트워크, 다른 유형의 네트워크 컨볼 루션 네트워크, 재발과 같은 네트워크와 훨씬 더 많은 다음 화려한

org는 당신이 갈 곳입니다! 안에 자동화를 통한 세계 알고리즘이 점차 대체 될 것입니다 더 많은 직업, 그것은 개인으로서 우리에게 달려 있습니다 우리의 뇌를 날카롭게 유지하고 여러 분야에 대한 창의적인 솔루션 문제와 화려한 플랫폼입니다 그렇게 할 수 있습니다 예를 들어 매일 매일 도전이 있습니다 다양한 코스를 다룰 수 있습니다 STEM 도메인 이러한 도전은 그들이 그리는 방식으로 제작 당신은 다음 새로운 것을 배울 수 있도록 직관적 인 개념 설명 특이점을 지원하려면 번영과 더 많은 것을 배우십시오 Brilliant, brilliant

org/로 이동하십시오 특이! 또한 처음 200 그 링크에가는 사람들은 20 %를 얻을 것입니다 연간 보험료 할인 혜택! 이 시점에서 비디오는 결론, 감사합니다 그것을 볼 시간을내어! 만약 너라면 그것을 즐겼다, 나를지지하는 것을 고려해라 Patreon 또는 YouTube 회원 자격 유지 이 도전이 커지고 있습니다! 우리를 확인 자세한 내용은 웹 사이트를 참조하십시오 더 많은 콘텐츠를 구독 한 입 크기에 대한 우리의 페이스 북 페이지 내용의 덩어리 안쿠 르였습니다 당신은 특이점을보고있다 번영과 곧 다시 ll겠습니다! [음악]

CXC Ecoverse eps.14: Can we actually get from Machine Learning to A.G.I.?, Peter Voss pt. 5

TIM : 세 파도로 두 번째 물결 인 딥 러닝의 길입니다 다리가 있습니까 세 번째 물결에? 아니면 딥 러닝은 막 다른 골목입니다 완전히 새로운 접근법이 필요합니다 인지 아키텍처를 얻는 방법? PETER : 저는 견실 한 견해를 가지고 있습니다 딥 러닝에서 얻을 수없는 인지 아키텍처에 또는 적어도 그것에 대한 명확한 길은 없습니다 기본 가정이 이루어지기 때문에 사용되는 기본 기술 더 나아가서 기술을 구축하는 데 필요한 기술, 너무 다르기 때문에 실제로는 없습니다

당신은 사람들보다 훨씬 나아질거야 깨끗한 슬레이트인지 아키텍처로 시작하는 훨씬 더 진보 할 것입니다 딥 러닝 시스템을 사용하려는 사람보다 그것을인지 아키텍처로 바꾸십시오 단지 사고 방식 딥 러닝 / 머신 러닝에 종사하는 사람들은 일반적으로 훈련, 사고 방식, 수학자와 논리학 자의 접근 그것이 그들이 문제를 보는 방식입니다 그들은 그것을 통계적 문제로 본다 또는 수학적 문제

실제로 용어로 오는 반면 인지 아키텍처를 사용하면 시작해야합니다 인지 심리학자처럼 생각함으로써 먼저인지가 무엇인지 이해해야합니다 지능이 무엇인지, 당신이 알고, 추론이 무엇인지, 개념 형성은 무엇인가 인지 심리학이라는 용어는 그 용어로 문제를 이해해야합니다 그런 다음 코드로 변환 할 수 있습니다 일반적으로인지 심리학자들은 아마 그들 대부분은 좋은 수학자가 아니에요 그 반대 그래서 일하는 사람들조차도 딥 러닝 / 머신 러닝에 매료되어 일반적으로 올바른 사람이 아닙니다 인지 아키텍처

Live Coding A Machine Learning Model from Scratch (Google I/O'19)

[음악 재생] SARA ROBINSON : 안녕하세요 컴퓨터 학습 모델 인 Live Coding에 오신 것을 환영합니다

기스로부터 내 이름은 사라 로빈슨이야 저는 Cloud Platform 팀에 대한 개발자 옹호자입니다 기계 학습에 중점을 둡니다 트위터 @SRobTweets에서 나를 찾을 수 있습니다

그리고 가장 최근에 SaraRobinsondev에서 내 블로그를 찾을 수 있습니다 그래서 우리가 오늘 다루어야 할 것들로 바로 들어가 봅시다 무엇에 대한 간단한 개요부터 시작하겠습니다 기계 학습은

그러면 우리가 만들 모델에 대해 이야기하겠습니다 마지막으로 라이브 코딩을 시작하겠습니다 그래서 높은 수준에서 기계 학습이란 무엇입니까? 나는이 정의를 정말로 좋아합니다 데이터를 사용하여 질문에 답합니다 여기서 아이디어는 점점 더 많은 데이터를 제공함에 따라 우리의 기계 학습 시스템에 예제를 개선하고 일반화 할 수 있어야한다

이전에 보지 못했던 그래서 우리는 거의 모든 감독 학습을 생각할 수 있습니다 문제 우리는 라벨 교육 훈련 자료를 가지고 있습니다 우리는 그것들을 우리의 모델에 넣고 우리의 모델은 예측을 출력합니다 자,이 훈련 입력은 실제로 아무것도 될 수 있습니다

그것은 영화 리뷰의 텍스트 일 ​​수 있습니다 우리의 모델은 정서 분석을 통해 우리에게 말해 줄 수 있습니다 이것은 긍정적 인 리뷰라는 것입니다 수치 적 또는 범주 적 적합성 데이터 일 수 있으며, 어쩌면 우리 모델이 수면의 질을 예측할 수도 있습니다 우리가 얻을거야

그것은 이미지 데이터 일 수 있습니다 따라서이 예에서 우리 모델은 예측하고 있습니다 이것이 고양이의 이미지라는 것 그래서이 모델 컨셉은 정말 마술처럼 보일 수 있습니다 하지만 실제로는 마술이 아닙니다

후드 아래에서 행렬 곱셈에 이르기까지 모두 종결됩니다 그래서 여러분 중 누군가가 y equals를 기억한다면 대수학 수업에서 mx plus b, 이것은 익숙하게 보일 것입니다 여기서 아이디어는 매트릭스로 기능을 사용한다는 것입니다 그것들은 당신의 의견입니다 네가 예측하려고하는 것을 가지고있어

그리고 여러분은이 무게와 편향 행렬을가집니다 그리고 이것들이 초기화되면 임의의 값으로 초기화됩니다 따라서 여기에있는 아이디어는 모델을 훈련 할 때, 이 무게와 편견에 대한 최적의 값을 찾을 수 있습니다 행렬을 사용하여 고정밀 도로 예측할 수 있습니다 그렇게 좋은 소리지만, 내가 보여준 모범을 생각해 보라

이전 슬라이드에서 – 아무도 매트릭스가 없었습니다 글쎄, 당신이 꽤 많이 표현할 수 있다는 것이 밝혀졌습니다 모든 유형의 데이터를 매트릭스로 사용합니다 이 이미지를 예로 들어 보겠습니다 모든 이미지는 실제로 픽셀 수입니다

그리고 이것은 컬러 이미지입니다 따라서 각 픽셀에는 빨강, 녹색 및 파랑 값이 있거나 RGB 값 이 이미지는 RGB 값의 세 행렬이됩니다 각 픽셀에 대해 카테고리 데이터가 있다고 가정 해 보겠습니다 따라서 데이터 세트의 특정 열에 대해서는, 그것은 사람이 일하는 산업을 묘사합니다

세 가지 가능한 값이 있습니다 카테고리 데이터를 인코딩하는 방법은 하나의 핫 인코딩이라고합니다 이렇게하려면 배열을 만듭니다 요소 수와 일치 당신이 가지고있는 카테고리의 수에 따라 -이 경우에는 3입니다 그리고 모든 값은 단일 1을 제외하고는 0입니다

그리고 그 1의 인덱스는 값과 일치합니다 그 범주의 그래서 어쩌면 너는 생각하고 있겠지, 그렇지 않니? 우리가 수치 적으로 이러한 건강 관리를 암호화한다면 더 쉬워 질 것입니다 1, 금융 2, 소매 3? 우리는 그 일을 할 수 있었지만, 우리의 모델 이것들을 연속적인 수치로 해석 할 것이다 따라서 소매업에 더 높은 비중을 부여 할 것입니다

소매업은 금융보다 큽니다 건강 관리보다 큽니다 그리고 우리 모델은 이러한 모든 입력을 똑같이 다루기를 바랍니다 이것이 우리가 핫 인코딩하는 이유입니다 그래서 우리가 어떻게 변형시킬 수 있는지 보여주었습니다

우리의 기계 학습 모델에 대한 우리의 데이터 이 이야기에서 나는 너와 나누고 싶다 ML 모델을 구축하는 데 도움이되는 Google 클라우드의 일부 도구 그리고 이것을 이것을 피라미드로 시각화하고 싶습니다 당신의 추상화 수준 행렬의 세부 사항으로 들어가고 싶다면 곱셈 및 모든 레이어 구축 우리가 오늘 할 일부터 당신의 모델을 처음부터, 너는 그걸 할 수있어

그러나 ML 전문가가 필요하지 않습니다 그래서 피라미드의 바닥에있는 도구들 데이터 과학자 및 ML 엔지니어를 대상으로합니다 그리고 우리가 맨 위로 이동하면 가지고 있지 않은 응용 프로그램 개발자를 목표로합니다 기계 학습 전문 기술 그래서이 이야기에서 우리는 건물을 짓게 될 것입니다

TensorFlow가있는 모델입니다 Cloud AI 플랫폼에 배포 할 예정입니다 여기에있는 아이디어는 모두 데이터 과학자와 ML로 전환시키는 것입니다 엔지니어 그래서 모델의 유형을 생각할 때 이것을 위해 빌드하고 싶었어

개발자들과 공감할만한 것을 선택하십시오 개발자로서 한 가지 도구가 있습니다 나는 내가 매일 사용한다고 생각할 수있다 스택 오버플로입니다 그래서 나는 텍스트 분류 모델을 만들고 싶었다

스택 오버플로의 태그를 예측할 수 있는지 확인합니다 의문 이를 위해서는 많은 데이터가 필요합니다 그리고 운 좋게도 공개 데이터 세트를 사용할 수 있습니다 Google의 빅 데이터 애널리틱스 인 Google Cloud BigQuery Google Cloud Platform의 창고 BigQuery에는 많은 흥미로운 대중 데이터가 있습니다

당신이 탐험하고 놀 수 있도록 설정합니다 그리고 그들은 Stack Overflow 질문 중 하나를 가지고 있으며, 스택 오버플로에 관한 몇 가지 질문은 없습니다 그것은 26 기가 바이트 이상 1700 만 행을 가지고 질문들 그래서 이것은 시작하기에 좋은 곳입니다 우리에게는 엄청난 시간이 없기 때문에, 나는 문제 공간을 단순화하고 싶었다

이 예에서 우리는 이 5 개의 태그가 관련된 질문을 분류하는 것 데이터 과학 및 기계 학습 그래서이 특별한 질문을 위해, 우리 모델 판다 (Pandas)로 분류해야합니다 데이터 과학을위한 파이썬 라이브러리입니다 첫 번째 단계는 BigQuery에서 데이터를 가져 오는 것입니다 BigQuery에는 멋진 웹 UI가있어 SQL을 직접 작성할 수 있습니다 브라우저에서 데이터를 가져온 다음 CSV로 다운로드하십시오

그것은 내가 한 일입니다 그래서 저는 제목과 제목을 추출합니다 그것들을 하나의 필드로 연결하고, 쉼표로 구분 된 태그 문자열을 얻습니다 그리고 나서이 다섯 개의 태그로만 질문을합니다 그래서이 쿼리를 실행했고 결과를 보았습니다

나는 뭔가를 알아 차렸다 많은 질문, 질문 포스터는 어떤 프레임 워크의 이름을 붙이기 편리합니다 그들은 매우 도움이되는 질문에서 사용하고 있습니다 하지만 그건 내 생각에 우리가 실제로 이것을 위해 기계 학습이 필요합니까? 우리는 전체 ML 시스템을 if 문으로 대체 할 수 있습니까? TensorFlow가 문제가된다면, 태그는 TensorFlow와 같습니다 대답은 '아니오

많은 질문 포스터가 이것을하기 때문에, 실제로 많은 질문을 게시하는 사람들이 있습니다 좋은 질문이지만 코드에 바로 들어가기 만하면됩니다 그리고 그들은 프레임 워크 나 태그 이름을 언급하지 않을 수도 있습니다 그래서 우리는이 질문들도 포착하고 싶습니다 그리고 우리 모델이 그 신호를 받아들이 길 원치 않습니다

단어만으로 질문을 식별 할 수 있습니다 TensorFlow라는 단어가 TensorFlow라는 단어와 함께 나타납니다 우리는 패턴을 찾기 위해 일반화 할 수 있기를 원했습니다 이 태그들 중에서 그래서 내가 훈련을 사전 처리 할 때 데이터, 내가하고 싶었던 것은 꺼내는 것이었다

이 명백한 키워드 그래서 저는 그것들을 공통 단어로 대체 할 수 있다고 생각했습니다 그리고 모두가 아보카도를 사랑하기 때문에, 나는이 모든 단어를 대체했다 프레임 워크의 약어, 단어 아보카도와 따라서 BigQuery의 결과는 다음과 같습니다

우리는 우리의 질문이 있습니다 우리는 아보카도 예측 모델을 가지고 있습니다 우리는 아보카도 데이터 세트를 가지고 있습니다 사방에 많은 아보카도가 있습니다 그래서 내가 전에 말하지 않은 것은 자유 형식의 텍스트 데이터를 매트릭스로 인코딩하는 방법이었습니다

이렇게하기위한 두 가지 접근 방식이 있습니다 저는 단어 모음이라고 불리는 것을 사용하려고합니다 이것은 시작하기에 정말 간단합니다 따라서 모델에 대한 각 입력을 생각할 수 있습니다 스크래 블 타일의 가방으로 단어의 가방에, 반면에 각 타일에있는 편지 대신에, 너는 각 타일에 한 마디있다

따라서이 유형의 모델은 단어의 순서를 감지 할 수 없습니다 문장에서,하지만 그것은 존재 또는 부재를 감지 할 수있다 특정 단어들 이게 어떻게 작동하는지 보여주기 위해, 나는 너에게 보여주고 싶다 정말 간단한 예입니다

따라서이 예에서는 문제 공간을 더욱 제한 할 것입니다 to say 우리는 단지 질문에 태그를 달고 있습니다 세 가지 유형의 태그가 있습니다 그리고 단어 모델의 가방에는 어휘 (vocabulary)라는 개념이 있습니다 그래서 잠시 동안 척해라

처음으로 영어를 배우고, 당신은이 10 단어 만 알고 있습니다 그것이 우리 모델이 문제를 보는 방법입니다 재미있는 대화로 이어질 수도 있습니다 우리는이 10 단어 만 알고있는 척합니다 그래서 우리가이 입력 질문을 할 때, 데이터 프레임 막대 그래프, 우리는 우리의 어휘를보고, 우리는 말할 것입니다, 좋습니다

나는이 세 단어를 알아 낸다 그 질문의 나머지 단어들 모델에 횡설수설 할 것입니다 그리고 우리가 우리의 모든 질문을 모델에 적용 할 때, 우리는 그들을 매트릭스로 먹이고 싶다 같은 크기입니다 그래서 우리가하는 일은 우리의 질문이 배열이되는 것입니다

1과 0을 사용하는 어휘의 크기 우리 어휘의 어떤 단어가 있는지 나타냅니다 따라서 데이터 프레임이 어휘의 첫 번째 색인이기 때문에, 우리 배열의 첫번째 원소는 1이되고, 데이터 프레임이 우리 질문에서 첫 번째 단어가 아니더라도 그래프와 플롯도 마찬가지입니다 요약하면, 우리의 질문은 1과 0의 어휘 크기의 배열 멀티 핫 인코딩이라고합니다

그리고 우리의 예측은 -이 특별한 모델 때문에, 우리 모델은 다음과 같은 질문을 식별 할 수 있습니다 하나가 아닌 여러 태그 그래서 이것은 또한 멀티 핫 어레이가 될 것입니다 이제 우리 모델에 대한 텍스트 데이터를 인코딩하는 방법을 알았습니다 우리 모델은 실제로 어떻게 생겼습니까? 우리 모델의 입력 데이터는 그 어휘 크기의 단어 가방이 될거야

매트릭스 그런 다음 숨겨진 레이어라고 불리는 것에 피드를 공급합니다 그래서 이것은 깊은 신경 네트워크가 될 것입니다 입력 사이에 레이어가 있음을 의미합니다 및 출력 레이어

그래서이 어휘 크기의 배열을 사용할 것입니다 어떤 크기로든 크기를 조정할 수 있습니다 두 번째 레이어와 세 번째 레이어를 선택하십시오 이제 숨겨진 레이어의 출력 우리에게 너무 많은 것을 의미하지는 않습니다 우리 모델은 그것을 표현하기 위해 사용하고 있습니다

복잡한 관계지만, 우리가 정말로 신경 쓰는 것 최종 레이어의 출력입니다 계산 방법에 대한 많은 옵션이 있습니다 이 층의 출력 우리는 시그 모이 드 (Sigmoid)라는 것을 고를 것입니다 그리고 이것이 할 것은 0과 1 사이의 값을 반환 할 것입니다 확률에 해당하는 각 태그에 대해 해당 태그가이 질문과 관련되어 있음을 나타냅니다

그래서이 특별한 예를 들어, 질문이있는 것처럼 높은 확률을 보인다 Keras 또는 TensorFlow에 관한 정보 그렇다면이 도구를 만들기 위해 우리가 사용할 도구는 무엇입니까? BigQuery를 사용하여 데이터를 수집하는 방법을 이미 보여 줬습니다 CSV를 다운로드했습니다 우리는 세 가지 오픈 소스 프레임 워크를 사용할 것입니다

사전 처리 및 일부 변환 작업 수행 데이터를 올바른 형식으로 가져 오기 위해 우리는 Pandas, Scikit-learn 및 Keras를 사용할 것입니다 TensorFlow를 사용하여 모델을 구축하고, 특히 tfkeras 우리는 Colab에서 교육 및 평가를 실시 할 것입니다 Colab은 클라우드 호스팅 된 Python 노트북이며, 브라우저에서 실행할 수 있습니다

누구나 사용할 수있는 것은 전적으로 무료입니다 마지막으로 Cloud AI Platform에 모델을 배포합니다 제목에 라이브 코딩이 나와 있습니다 데모로 넘어 갑시다 데모로 전환 할 수 있습니까? 굉장해

여기 Colab 노트북이 있습니다 연결 됐어 다시 말하지만, 누구나 브라우저에서 Colab에 액세스 할 수 있습니다 Colabresearch

googlecom 보시다시피, 여기에는 코드가 없습니다 무엇이 잘못 될 수 있습니까? 그냥 한마디의 코멘트 그래서 나는 몇 가지 코드를 작성하기 시작할 것입니다

이 셀을 셀 단위로 실행합니다 그래서 제가 사용하려고하는 것은 Colab입니다 이 편리한 스 니펫 도구가 있습니다 그래서 저는이 노트북에 대한 두 조각을 저장했습니다 내가 여기서 내려올거야

그래서 첫 번째 것은 어쨌든 이것을 실행할 것입니다 런타임을 재설정해야했고 이제는 연결되었습니다 그래서 우리의 첫 번째 셀은 가져 오는 것입니다 우리가 사용할 모든 라이브러리 우리는 TensorFlow, Pandas, NumPy, 몇 가지 Scikit 학습 유틸리티 함수, Keras를 사용하여 모델을 구축했습니다

그래서 우리는 모든 수입품을 가지고 있습니다 실제로 저를 조금 더 크게 만들자 그래서 당신은 모두 볼 수 있습니다 다음으로 우리가하고 싶은 일은 인증입니다 자 간다

따라서 Colab에는 편리한 인증 기능이 있습니다 우리가 달릴 수있는 곳 그러면 URL이 팝업됩니다 클라우드 계정에 인증 할 수 있습니다 따라서 액세스를 허용하고이 코드를 복사 한 다음 붙여 넣습니다

이제 인증을 받았습니다 그리고 지금, 우리는 재미있는 것들을 얻을 것입니다 먼저 CSV를 다운로드하고 싶습니다 이제 인증을 받았으므로 이 모든 데이터를 Google Cloud Storage의 CSV에 저장했습니다 이것이 Google Cloud Platform의 객체 저장 도구입니다

그래서 CSV를 내 Colab 인스턴스에 다운로드 할 것입니다 그리고 나서 내가 할 일은 내가 이 CSV를 읽기 위해 팬더를 사용하려고합니다 그럼 여기서 읽어 보도록하겠습니다 그리고 이것은 우리의 데이터를 팬더 데이터 프레임 (Pandas Dataframe)이라고 불리는이 프레임 워크는 잠시 후에 볼 수 있습니다 우리가 할 다음 일은 우리는 데이터를 섞을 것입니다

그리고 이것은 기계 학습에서 정말로 중요한 개념입니다 귀하의 데이터가 어떤 순서로든 전에, 당신은 당신이 그것을 뒤섞 었는지 확인하기를 원합니다 그리고 Scikit-learn 셔플 기능을 사용하고 있습니다 Datahead를 통해 데이터를 미리 볼 수 있습니다

이것이 우리의 데이터가 어떻게 생겼는지입니다 우리는 쉼표로 구분 된 문자열로 태그를 가지고 있습니다 우리는 아보카도가 많은 질문 문안을 가지고 있습니다 이제, 우리는 현재의 형태로 이것을 우리 모델에 먹일 수 없습니다 그래서 우리는 인코딩을해야 할 것입니다

먼저 태그를 처리합니다 그래서 우리가하고 싶은 첫 번째 일은이 태그를 인코딩하는 것입니다 우리가 슬라이드에서 보았던 것처럼, 멀티 핫 다섯 요소 배열, 5 개의 가능한 태그가 있기 때문입니다 첫 번째 줄에서 내가 뭘하는지 나는 각 태그를 문자열 배열로 분할하고있다

그리고이 Scikit-learn 멀티 라벨을 사용하고 있습니다 이진화 함수 문자열의 모든 배열을 변환합니다 멀티 핫 어레이로 이것이 첫 번째 질문입니다 우리는 그것이 TensorFlow와 Keras에 관한 것이라는 것을 알 수 있습니다

Scikit에서 배울 수있는 참조 배열은 다음과 같습니다 우리를 위해 창조했습니다 그래서 우리의 의견은 이것이됩니다 우리는 레이블을 암호화했으며, 우리는 계속 나아갈 준비가되어 있습니다 질문에

그렇게하기 전에 데이터를 분할해야합니다 기계 학습의 또 다른 중요한 개념 기차 / 테스트 스플릿입니다 그래서 우리는 대부분의 데이터를 취합니다 우리는 모델을 훈련하는 데이 모델을 사용할 것입니다 이 경우 우리는 80 %를 할 것입니다

우리는 우리의 데이터 중 적은 부분을 우리가 할 수 있도록 테스트에 사용 결코 우리 모델이 어떻게 데이터를 처리하는지보십시오 전에 본 이 경우, 우리는 우리의 훈련 세트에 15 만 질문을 가지고 있습니다 우리의 테스트 세트에서는 37,000입니다 이제 레이블을 교육 및 테스트 세트로 분리 할 것입니다

테스트 태그와 인코딩 된 태그가 같다고 가정 해 보겠습니다 우리가 그걸 실행할거야 그래서 우리는 준비가되어있는 라벨을 준비했습니다 그리고 우리가하고 싶은 다음 일은 – 우리의 라벨 데이터는 바로 사용할 준비가되었습니다 이제 질문 데이터를 인코딩해야합니다

단어 행렬의 가방에 넣는다 그래서 저는 이것을하기 위해 수업을 작성했습니다 그걸 여기에 붙여 넣을거야 많이 진행되는 것처럼 보이지만 설명하겠습니다 여기서 일어나는 일은 우리가이 Keras를 사용하고 있다는 것입니다

Tokenizer 유틸리티 운 좋게도, 우리는 모든 코드를 할 필요가 없습니다 우리의 자유형 텍스트를 손으로 단어의 가방으로 변환하는 것 Keras는 우리를 위해이 유틸리티를 제공합니다 우리가하는 일은 우리의 어휘 크기에 합격하는 것입니다

그래서 내가 전에 보여 줬던 아주 간단한 예제에서, 우리는 어휘 크기가 10이었습니다 그러면 데이터 세트에서 상위 10 개 단어가 표시됩니다 이 데이터 세트가 훨씬 크기 때문에, 400의 vocab 크기를 선택했습니다 그래서 뭔가를 선택하고 싶습니다 너무 작아서 일반적인 단어 만 식별합니다

모든 질문에 대해 하지만 너는 또한 선택하기를 원하지 않는다 너의 단어 가방이 너무 커서 배열은 모두 1이됩니다 그래서 우리는 이것을 실행할 것입니다 그리고 이제 우리는 실제로 그 클래스를 사용할 것입니다 그래서 우리는 그것을 수입 할 것이고, 우리는 우리의 질문을 갈라 놓을 것입니다

기차와 시험 세트에 그래서 그렇게하겠습니다 지금은 아직 문자열이 있습니다 아직 인코딩하지 않았습니다 다음 단계는 vocab 크기를 인스턴스화하는 것입니다

변수는 400이 될 것입니다 이제는 실제로 텍스트를 토큰 화합니다 그래서 우리는 프로세서라는 변수를 생성 할 것입니다 그 텍스트 전처리 또는 클래스를 인스턴스화하고, 우리의 vocab 크기를 전달합니다 이제는 processor

create_tokenizer를 호출 할 수 있습니다 그것을 우리 기차 질문에 전달하십시오 바로이 방법입니다 그리고 마지막으로 마지막 부분은 실제로 단어 행렬의 가방 그래서 이것은 processor

transform_text와 같을 것이고, 그 방법 바로 거기 그리고 우리는 기차 질문을 전달할 것입니다 그런 다음 테스트 세트는 동일하게됩니다 우리가 여기서 정의한 테스트 문제를 가지고 그래서 나는 그것을 실행할 것입니다 실행하는 데 약간의 시간이 걸릴 것입니다

180,000 개의 질문을 모두 바꾸고 있습니다 텍스트에서 단어 모음 실행되는 동안 다른 셀을 계속 쓸 수 있습니다 이 작업이 완료되면 실행됩니다 그래서 제가하고 싶은 것은 길이 인쇄입니다

첫 번째 인스턴스의 그것은 400이어야합니다 그리고 나서 우리는 그 단어 행렬의 봉지를 기록 할 것입니다 당신이 그것을 볼 수 있도록 그리고 이제 우리는 모델을 구축하게됩니다 실행이 끝나면 다시 돌아올 것입니다

그래서 우리가하고 싶은 다음 일은 우리가 만든 그 토크 나이저를 저장하고 있습니다 모델을 배포 할 때 필요할 것이기 때문입니다 우리는 파이썬 유틸리티를 사용하고 있습니다 Pickle은 tokenizer 오브젝트를 파일에 저장합니다 이제 우리 모델을 만들 차례입니다

우리는 데이터를 변형 시켰습니다 Tokenizer를 저장했습니다 이제 코드를 작성하려고합니다 Keras를 사용하여 우리 모델에 나는 이것을 방법으로 포장 할 것이다

우리는 create_model이라고 부를 것이고, 우리의 어휘를 취할 것입니다 크기 및 태그 수 Keras 순차 모델 API를 사용하여 그 위의 내가 수입 이것은 모델을 구축하기위한 가장 좋은 API입니다 기본적으로 모델을 정의 할 수 있기 때문에 레이어의 스택으로 따라서 우리가 작성하려고하는 코드가 그 모델 다이어그램에 정말 잘 어울릴 것입니다 내가 방금 보여준 것

그래서이 셀이 달리는 것처럼 보입니다 그래서 우리는 이것이 단어 입력의 첫번째 봉지라는 것을 알 수 있습니다 첫 번째 질문 인이 1의 배열과 같습니다 및 0이다 그럼 우리 모델을 계속 만들어 보겠습니다

따라서 우리 모델의 첫 번째 레이어는 밀도가 높고 완전히 연결된 레이어가 될 것입니다 즉, 입력 레이어의 모든 뉴런 출력 레이어의 모든 뉴런에 연결됩니다 첫 번째 레이어에 무엇을 입력 모양이 될 것입니다 이 경우, 그것은 우리의 vocab 크기의 입력이 될 것입니다 400입니다

그리고 마침내, 우리는 Keras에게 말할 필요가 있습니다 이 레이어의 출력을 계산하는 방법 Keras의 가장 큰 장점은 이 정품 인증 기능이 어떻게 작동하는지 정확하게 알 필요가 없습니다 후드 우리는 사용할 올바른 정품 인증 기능을 알아야합니다

그래서이 경우 relu가 우리가 사용하게 될 것입니다 우리는 relu 활성화와 함께 하나 이상의 숨겨진 레이어를 추가 할 것입니다 기능 여기에 입력 모양이 필요하지 않습니다 왜냐하면 입력 모양을 추론 할 것이기 때문입니다

이전 레이어에서 지금까지, 이들은 우리의 숨겨진 계층입니다 따라서 우리는 이러한 레이어의 출력에 대해별로 신경 쓰지 않습니다 그러나 우리가 신경 쓰는 것은 최종 레이어의 출력입니다 그리고 그 층은 다섯 개의 뉴런을 가질 것입니다

5 요소 배열이 될 것입니다 데이터 세트에 5 개의 태그가 있습니다 그리고 여기서 활성화 기능은 시그 모이 드가 될 것입니다 그래서 이것이 우리 모델의 모든 코드입니다 단지 4 줄의 코드로 Keras에서 모델을 정의했습니다

modelcompile을 실행하여 실제로 이 모델을 훈련하고 평가하십시오 그리고 이것을하기 위해서, 우리는 그것에게 몇 가지 것을 말할 필요가 있습니다 그래서 우리는 우리의 손실 함수를 말할 필요가 있습니다 Keras가 우리 모델의 오류를 계산하는 방법입니다

따라서 교육을받을 때마다 이 함수를 사용하여 OK, 모델이 예측 한 것의 오류는 무엇 이었습니까? 그리고 지상 진실 – 그것은 무엇을 예측 했어야 하는가? 다시 말하지만, 우리는 정확히 알 필요가 없습니다 이 특정 손실 기능이 두건에서 어떻게 작동하는지 이것은이 유형의 모델에 사용하기에 가장 적합한 모델입니다 또한 내 최적화 프로그램에 알려야합니다 최적화 도구는 모델이 데이터 세트를 거친 후 가중치를 업데이트하십시오

그리고 마지막으로, 나는 그것을 말하고 싶다 내 모델을 교육으로 평가하는 방법 여기서 정확도를 측정 항목으로 사용하려고합니다 그래서 저는 제 모델을 돌려 드리겠습니다 실제로 우리 모델을 만듭니다

create_model을 호출합니다 우리는 우리의 vocab 크기와 num 태그를 전달할 것입니다 그리고 나서이 모델을 사용할 수 있습니다 summary 메서드 우리 모델이 어떤 모습인지 레이어별로 볼 수 있습니다 그래서 우리는 그것을 실행할 수 있습니다

우리는 우리 모델을 갈 준비가되어 있습니다 우리는 아직 그것을 훈련하지 않았다 그래서 우리가 할 다음 것은 우리 모델을 훈련시킬 것입니다 그리고 우리는 하나의 메소드 호출만으로 modelfit을 호출 할 수 있습니다

우리는 그것을 두 가지로 전달합니다 우리는 단어 배열의 가방을 전달합니다 그것이 우리의 의견이며 우리의 특징입니다 우리는 그것의 레이블을 전달합니다 그것들은 우리가 인코딩 한 태그입니다

우리는 훈련을하기 위해 얼마나 많은 신기원을 가져야하는지 말해야합니다 이것이 의미하는 바는 이것이 우리 모델이 몇 번이나 전체 데이터 세트를 반복합니다 따라서 전체 데이터 세트를 세 번 처리해 보겠습니다 일괄 처리 크기는 우리 모델이 한 번에 볼 수있는 요소의 수입니다 그것이 가중치를 업데이트하기 전에

이 경우 128을 사용합니다 그런 다음 선택적 매개 변수를 전달하려고합니다 이 검증 분할은 교육 자료의 10 %를 가져 와서 평가하십시오 우리 모델은 훈련이기 때문에 그래서 우리는 훈련을 할 것이고, 꽤 빨리 훈련해야합니다

그리고 여기서 우리가 이상적으로 보는 것은 우리의 검증 우리의 훈련 손실은 감소하고 있습니다 그래서 그것은 좋은 징조입니다 우리는 검증과 훈련 손실이 줄어들고 있습니다 교육 과정에서 검증 손실이 증가하는 경우 손실은 감소하고있다 귀하의 모델이 훈련 데이터를 너무 가깝게 학습하고 있음을 나타냅니다

우리의 정확도가 96 %라는 것을 알 수 있습니다 이것은 꽤 좋습니다 그래서 다음 단계는 우리 모델을 평가하는 것입니다 그래서 우리가 따로 설정 한 질문의 20 % 우리는 이제 우리 모델이 어떻게 그 데이터에 대해 수행되는지 살펴볼 것입니다 그래서 우리는 model

evalute를 호출합니다 우리는 단어의 테스트 백, 테스트 태그, 우리는 배치 크기를 알려줍니다 우리의 평가 정확도는 우리 교육에 매우 가깝습니다 정확성은 좋은 징조입니다 그리고 나서 우리가하고 싶은 마지막 일 우리 모델을 파일로 저장하는 것입니다

Keras는 H5 파일 형식을 사용합니다 그래서 우리는 우리 모델을 살릴 것입니다 이제는 로컬에서 테스트 해 보겠습니다 그래서 우리는 내가 작성한 커스텀 예측 클래스를 가지고 있습니다 이 모든 일은 데이터를 사전 처리하는 것입니다

그러면 파일에서 SavedModel을 인스턴스화합니다 Tokenizer를 인스턴스화합니다 질문은 텍스트로, 변형 시키거나, 그런 다음 시그 모이 드 확률 배열을 예측합니다 그럼 예측할 몇 가지 질문을 저장해 봅시다 이것은 단지 두 가지 샘플 질문의 배열입니다

그리고 나서 우리는 우리 지역 모델에 대한 예측을 할 것입니다 그래서 이것은 돌아와야합니다 시원한 첫 번째 질문에 대해서는 Keras는 정확합니다 두 번째 사람은 팬더를 예측했다

그래서 우리 모델은 로컬에서 작동합니다 정확도는 96 %입니다 다음으로해야 할 일은 패키지로 만들고 배포하는 것입니다 AI 플랫폼에 그래서 이것을하기위한 코드를 작성했습니다

우리가 가지고있는 기능 중 하나 Cloud AI 플랫폼의 새로운 기능을 활용할 것입니다 맞춤 코드입니다 예측 시간에 실행되는 사용자 정의 서버 측 Python 코드 이제는 매우 유용합니다 우리 고객을 매우 간단하게 유지합시다

그래서 우리 고객은 텍스트를 우리 모델에 전달할 것입니다 우리는 클라이언트에서 어떤 변환 작업도하고 싶지 않습니다 텍스트를 모델에 전달합니다 그리고 서버에서 우리는 그 텍스트를 변형 할 것입니다 단어를 담은 다음 올바른 태그를 반환합니다

이렇게하려면 일부 파일을 Google Cloud로 복사해야합니다 Cloud AI 플랫폼에서 찾을 수 있도록 스토리지 우리 모델과 토크 나이저 Google Cloud CLI G를 사용합니다 내 현재 프로젝트를 설정 한 클라우드 이 데모 용으로 구성되었습니다 마지막으로 AI 플랫폼에 배포하고 싶습니다

여기에 우리가 실행할 배포 명령이 있습니다 최소 노드를 1로 설정하여 모델을 모델링합니다 0으로 스케일되지 않습니다 그리고 io19라는 새로운 버전을 만들 예정입니다 그리고 우리는 그것을 배치 할 것입니다

실행하려면 몇 분이 걸릴 것입니다 그러나 클라우드 AI 플랫폼 모델 UI에서 여기를 살펴보면, 우리는 내 모델이 배포되고 있음을 볼 수 있습니다 그것은 꽤 시원하다 배포하는 동안 슬라이드로 돌아가 봅시다 그래서 우리는 꽤 잘 보이는 것을 만들었습니다

우리는 데이터를 사전 처리하기위한 코드를 작성했습니다 우리는 꽤 높은 정확도로 모델을 훈련 시켰습니다 하지만 우리가 잘 할 수 있을까요? 바로 지금, 우리 모델은 꽤 많은 블랙 박스입니다 우리는 예측이 어떻게 이루어지는 지 알지 못합니다 우리는 예측이 정확하다는 것을 알고 있습니다

그러나 우리는 그 결론을 내리는 것이 무엇인지 알지 못합니다 따라서 Sundar가 기조 연설에서 언급 한 것처럼, 우리는 우리 모델이 데이터를 사용하고 있는지 확인하려고합니다 그런 식으로 예측을 내린다 모든 모델 사용자에게 공평합니다 그렇게하려면 블랙 박스를 찾아야합니다

그리고 모델 제작자로서 우리는 우리가 생성 한 예측을 책임지고 있음 우리 모델에 의해 이것은 분명히 들릴지 모르겠지만 우리는 확신을함으로써 편견을 피하기위한 조치를 취할 필요가있다 우리의 훈련 데이터가 대표적이라는 것 우리 모델을 사용하고있는 사람들의 운 좋게도이 작업을 수행하는 데 도움이되는 유용한 도구가 많이 있습니다 SHAP이라는 하나의 오픈 소스 도구를 살펴볼 것입니다 그리고 SHAP이 우리에게 할 일은 출력을 해석하는 것입니다

어떤 기계 학습 모델의 그래서 우리는 여기 tfkeras 모델을 위해 이것을 사용할 것이고, 그러나 우리는 어떤 유형의 모델을 위해 그것을 사용할 수 있습니다 셰이프 작동 방식은 우리 모델에서 전달하는, 설명자 객체 라 불리는 것 그리고 우리의 훈련 데이터의 일부분 그런 다음 SHAP은 이러한 속성 값을 반환합니다

따라서 기여도 값은 무엇입니까? 양수 및 음수 값은 특정 기능에 얼마나 많은 영향을 주 었는지 우리 모델의 예측 그래서 우리는 세 가지 특징을 가진 모델을 가지고 있다고 가정 해 봅시다 3 요소의 속성 값 배열을 되 찾을 수 있습니다 높은 양수 값은 특정 기능 우리의 예측을 밀어 올렸다 음수 값은 예측치가 낮아질 수 있음을 의미합니다

글쎄,이 단어 모델의 가방을 어떻게 작동합니까? 그래서 SHAP을 구성한 것은 나는 400 개의 요소 어휘를 다뤄야했다 400 개의 기능으로 배열 그래서 400 가지 귀속 점수를 얻었습니다 우리는 그 중에서 가장 높은 가치를 취할 수 있습니다 어떤 단어가 우리 모델에 가장 큰 영향을 주 었는지 확인하십시오

그래서 저는 이것을하기 위해 약간의 코드를 작성했습니다 색상이 잘 보이는지 모르겠습니다 그러나 이것이 무엇인지는 내가 상위 5 위를 차지했다 가장 낮은 기여 점수가 우리 모델이 예측을 위해 사용했던 단어를 볼 수있었습니다 그래서이 특별한 질문은 판다에 관한 것입니다

그리고 그것은 단어 컬럼, 데이터 프레임, df, 시리즈, 그것은 좋은 단어입니다 팬더에만 해당됩니다 가장 적은 공헌을 한 단어는 각자, 그리고 너는 상당히 일반적이다 스택 오버플로 질문에서 찾을 수있는 단어 따라서 이것이 우리 모델이 올바르게 작동하는 좋은 징후입니다

이제 데모로 돌아가 SHAP을 살펴 보겠습니다 따라서 우리 모델은 배포가 완료된 것처럼 보입니다 계속 진행하여 기본 버전으로 설정하겠습니다 그리고 SHAP에 들어가기 전에 우리는 몇 가지 예측을 생성 할 것입니다 우리의 배치 된 모델에

그래서 몇 가지 테스트 예측으로 파일을 작성하겠습니다 이제 Google Cloud를 사용하게 될 것입니다 CLI를 사용하여 숙련 된 모델을 예측할 수 있습니다 그래서 우리는 gcloud AI 플랫폼을 예측합니다 stacko_model이라는 모델 이름을 전달합니다

그리고 우리는 텍스트 인스턴스를 전달합니다 이 파일은 방금 저장 한 predicttxt 파일입니다 그리고 우리는 그것을 실행할 것입니다 이제 우리는 배포 된 모델 예측을 인쇄 할 것입니다

그래서 그것은 좋아 보인다 우리는 AI 플랫폼에 배치 된 모델을 호출하고 있습니다 Keras를 성공적으로 예측했습니다 첫 번째 질문은 팬더이고 두 번째 질문은 팬다 이제 SHAP을 사용하여 모델을 설명합시다

따라서 SHAP은 Colab에 사전 설치되어 있지 않습니다 그래서 우리는 PIP를 통해 그것을 설치할 것입니다 그리고이 모듈을 설치합니다 다른 단어를 색칠하는 데 사용되는 Colored라는 텍스트의 일단 설치가 완료되면 SHAP를 가져오고, 우리는 설명자를 만들 수 있습니다 그래서 우리는 깊은 설명자를 창조 할 것입니다

SHAP에는 많은 다른 유형의 설명자가 있습니다 우리는 깊은 설명자를 사용할 것입니다 우리는 그것을 우리의 훈련 데이터의 부분 집합으로 전달할 것입니다 그런 다음 저작자 표시 값 배열을 만듭니다 그래서 우리는 explainer

shap_values를 호출 할 수 있습니다 그리고 테스트 데이터의 일부를 전달합니다 이 경우 처음 25 개를 가져옵니다 테스트 세트의 예제 따라서 우리는 귀속 값을 얻었습니다

다음으로하고 싶은 것은 좋은 방법으로 인쇄하는 것입니다 먼저, 그렇게하기 위해 우리는 Keras에서 만든 토크 나이저를 가져 오려면 사전이고, 배열로 변환 할 것입니다 SHAP에서 속성 값을 가져올 수 있습니다 그것들이 어느 단어에 해당하는지 보아라 따라서 우리는 토크 나이저를 단어 목록으로 변환 할 것입니다

그리고 여기에서 우리는 가장 자주 발생하는 가장 높은 단어를 볼 수 있습니다 우리의 모델 어휘가 사용하고 있습니다 그리고 우리가하고 싶은 첫 번째 일 우리가 SHAP에서 가지고있는 방법 인 요약 플롯을 출력한다 그 단어들의 요약을보기 위해 우리 모델의 예측에 가장 큰 영향을줍니다 SHAP 값을 전달합니다

또한 기능 이름을 전달해야합니다 방금 만든 단어 목록입니다 우리의 클래스 이름들과 함께 태그 인코더로 그래서 내가 올바르게 작성한다면, 우리는이 멋진 줄거리를 얻어야합니다 이리

그리고 이것이 우리에게 말하는 것은 가장 큰 어휘들입니다 우리 모델이보고있는 것입니다 그래서 dataframe이 단어 인 것처럼 보입니다 우리 모델이 예측을 위해 가장 많이 사용했던 것, 아마 가장 팬더가 있었기 때문에 아마 우리 모델의 질문 데이터 프레임이 팬더에게 가장 큰 영향을 미쳤습니다 그것은 또한 다른 도서관을위한 신호 어 였을 것입니다

부정적인 신호 단어 그리고 여기서 우리는 영향력있는 다른 단어들을 볼 수 있습니다 Matplotlib 예측에서 음모가 가장 중요했습니다 그건 맞는 말이야 그리고 우리는이 모든 다른 단어들을 목록에서 볼 수 있습니다

그래서 우리에게 좋은 결과를줍니다 우리 모델이 예측을 내리는 방식에 대한 견해 이 특정 데이터 세트 그리고 지금, 우리가 개별 단어를 강조하고 싶다면, 나는 우리가 볼 수 있도록 그렇게하기위한 코드를 작성했다 특정 질문, 어떤 단어 신호 예측입니다 여기 팬더 (Pandas) 질문의 예가 ​​있습니다

단어 열, 많은 팬더 데이터 프레임 값이없는 열이 있습니다 그런 다음 사용과 같은 일반적인 단어를 봅니다 우리 모델에 의해 사용되지 않습니다 예측을하기 TensorFlow를 위해 우리는 그것을 찾았습니다

session, sesh, ops, tensor와 같은 단어들 다음은 Keras 예제입니다 가장 일반적인 단어 인 것 같습니다 LSTM, 레이어, 밀도 등 이제 우리는 우리가 어떻게 사용할 수 있는지를 알 수 있습니다

SHAP을 사용하여 모델이 올바르게 작동하는지 확인하십시오 공정성의 예에서 이것을 사용할 수있는 한 가지 방법 감정적 인 분석을하는 모델을 가지고 있다면, 올바른 특성을 사용하는지 확인하고 싶습니다 텍스트 유형에 관계없이 긍정적 인 것과 부정적인 것을 예측할 수 있습니다 당신이 사용하고 있습니다 그래서 우리가 할 수 있다면, 슬라이드로 돌아가

포장하려면이 모든 것을 함께 넣을 것입니다 웹 응용 프로그램에서 우리 모델의 예측을 얻을 수 있습니다 우리가 할 수 있다면 정말 유용 할거야 우리가 Stack Overflow 질문을 타이프하고있을 때, 태그가 연결되어 있는지 확인하십시오 제 팀원 인 Jennifer Person의 도움으로 당신은 트위터에서 그녀를 따라야합니다 – Chrome 확장 프로그램을 만들었습니다

Chrome 확장 프로그램의 기능 Stack Overflow 질문의 HTML을 취하는 것입니까? 그것을 클라우드 기능으로 전달합니다 Cloud Functions Python 런타임을 사용하여 작성했습니다 이 함수는 AI 플랫폼 API를 사용하여 우리 모델에 대한 예측 그리고 나서 우리의 기능에서 우리는 돌아올 것입니다 신뢰할 수있는 태그의 이름 만 Chrome 확장 프로그램으로 돌아갑니다

그럼 행동에서 보자 우 데모로 돌아 가자 자 간다 그래서 여기에 판다 스의 Matplotlib에 대한 예제가 있습니다

방금 Chrome 확장 프로그램을 로컬에로드했습니다 지금은 작동하지 않는 것 같습니다 잠깐 만요 라이브 데모, 당신은 모릅니다 다시 한 번 사용해 보도록하겠습니다

뭔가가 일어나고있어 질문 초안을 시험해 보겠습니다 운좋게도 작동하지 않지만 운좋게도 비디오가 있습니다 그것이하기로되어 있었던 것의 안에서 미안해, 모두들

항상 백업을하십시오 그래서 이것이해야 할 일입니다 라이브 데모, 당신은 모릅니다 그래서 그것은 판다 스에서 Matplotlib을 예측하기로되어 있습니다 이 질문에

그런 다음 코드를 기반으로 초안을 작성했습니다 나는 그것을 썼다 그리고 그것은 그 것에 대한 Keras를 예측했습니다 데모가 작동하지 않아 죄송합니다 한번 더 해보 죠

작동하지 않는 것 같습니다 어쨌든 데모가해야 할 일입니다 가능한 경우 슬라이드로 돌아가십시오 그래서 저는 오늘날 많은 다른 도구들을 다루었습니다 나는 우리가 만든 모든 것을 요약하고 싶었다

맞춤 텍스트 분류 모델을 만들었습니다 tfkeras를 사용합니다 Cloud AI 플랫폼에 모델을 배포했습니다 나는 또한 내가 가질 수 있다고 언급해야한다

커스텀 코드를 사용하여 AI 플랫폼에 SHAP 코드 배치 특색 하지만이 경우에는 간단하게 유지하기로했습니다 그 부분을 별도로하십시오 모델 출력에 대해 우리 모델이 그 길에서 행동하고 있는지 확인하기 위해 SHAP하세요 우리가 기대했던 것

그리고 우리는 클라우드 기능이있는 인공 지능 플랫폼이라고 불립니다 당신은해야 할 일에 대한 비디오를 보았습니다 이것들은 내가 오늘 보여준 모든 코드에 대한 링크입니다 그리고 모든 다른 제품들 첫 번째 링크는 GitHub 저장소로 이동합니다

내가 보여준 모든 것에 대한 코드가 있습니다 다른 링크는 내가 다룬 다양한 제품에 대한 링크입니다 그리고 마지막으로 우리는 모델 해석 가능성 지원을 위해 노력하고 있습니다 Cloud AI 플랫폼에서 그래서 유스 케이스가 있다면, 루프에 머물러 있고 그것에 대해 더 많이 듣고 싶다면, 우리는 당신에게서 소식을 듣고 싶습니다 따라서이 양식을 하단의 Bit

ly 링크에 기입하십시오 마지막으로이 대화에 대한 의견을 남겨주세요 I / O 응용 프로그램에서 나는 다음 번에 그 이야기를 더 잘하기 위해 많이 사용한다 고마워, 모두들 [음악 재생]

Clone Teslas AI Strategy – AI & Machine Learning Strategy We Can Learn From Tesla Autonomy Day

이 비디오는 Tesla Autonomy Day 업데이트의 개요입니다 며칠 전 실시간 스트리밍이 가능합니다

테슬라의 놀라운 일들이 많이 있습니다 정말 잘하고 있습니다 테슬라는 환상적인 사례 연구라고 생각합니다 인공 지능과 기계 학습의 잠재력을 입증하는 개발을위한 견고한 데이터 전략을 개발하는 방법의 환상적인 예 경쟁 우위에 놓인 비즈니스 이점 최신 팁을 배우고 자합니다 워런 버핏 (Warren Buffett)이 주간 비디오 구독 버튼을 누르십시오

보호 할 경쟁력있는 해자를 갖는 것이 얼마나 중요한지 이 비디오에서 우리는 테슬라가 어떻게 독점적 인 수직 통합 도메인 전문 지식을 통한 경쟁 우위 진입 장벽이 높은 기술이며 아마도 가장 중요한 요소입니다 특정 동영상이 잠재 고객은 여기에 데이터입니다 경쟁 우위를 확보하고 데이터를 자산으로 활용하는 방법 이 순간에 이것에 대해 많이 언급되었지만 조직이이를 제대로 수행하지 못하고 있으며 이는 실제로 데이터 자산에 가치가 있는지 또는 그렇게 명확하지 않은지 여부 테슬라가 이것에 관해 처음으로 이야기했던 것을 이해할 가치가있다 회의는 이제 자신 만의 독자적인 칩 디자인이었습니다 마이크로 칩은 매우 전문화 된 작업이며 아주 소수의 사람들이 있습니다

테슬라는이 일을 할 수있는 전문 기술을 가지고있어서 매우 똑똑하다 그들이 매우 구체적인 것에 초점을 맞춤으로써 이것에 접근 한 방식에 대해 자가 운전 차에 전원을 공급하는이 경우의 문제는 이제 열쇠의 일부입니다 자가 운전 자동차를 가능하게하는 기술은 컴퓨터 비전입니다 기본적으로 깊은 학습이라는 기술과 신경 네트워크 이제 기계 학습은 전체적으로 매우 비싸다 컴퓨팅 자원은 원래 Intel과 같은 회사에서 CPU를 이렇게 만들었습니다

기계 학습을 위해 매우 빠르지 않은 일반적인 프로세싱 유닛이다 이제 기계 학습의 부상으로 인해 우리는 GPU를 만드는 엔비디아 같은 회사들 GPU는 그래픽 처리 장치 이 칩들은 원래 기본적으로 전원을 공급하기 위해 개발되었습니다 하이 엔드 컴퓨터 게임이 이제 막 일어났습니다 계산 유형 이 컴퓨터 게임을 처리하는 데 필요한 것은 매우 좋았습니다 기계 학습 알고리즘을 처리하지만 다시는 그렇지 않습니다

전문 칩 깊은 학습은 기계 내에서 매우 전문화 된 틈새 시장입니다 전체적으로 학습하고 가장 계산 집약적 인 기능 중 하나가 있습니다 뿐만 아니라이 회사 때문에 칩을 개발하기 시작했습니다 심층 학습 및 신경 네트워크에만 국한되므로 회사와 같은 회사가 있습니다 Google은 이제 tensorflow와 같은 Google의 제작 기술 대규모 학습을 가능하게하여 단위를 개발했습니다

처리에 도움이되는 텐서 처리 장치의 약자 인 ATP U라고 불리는 이제는이 모든 것들을 훨씬 빠르게 처리 할 수 ​​있습니다 Google은 클라우드 기반 회사입니다 중앙 집중화 된 처리 능력 그들은 일괄 처리 및 이것은 TPU가 매우 잘하는 것입니다 그래서 테슬라는 Google의 TPU는 기본적으로 256 개가 필요한 것을 의미하는 256 개 객체의 배치 크기를 가지고 있습니다 현재 시스템에로드 된 객체가 프로세스를 시작할 수 있습니다

너를 낮추고 싶기 때문에 진짜로 좋지 않은 자동 운전 차 당신이 물건을 즉시 바로 처리 할 수 ​​있기를 원하는 대기 시간 테슬라는이 문제를 해결하기 위해 실시간 결과를 얻기 위해 깊은 학습과 신경에 전념 한 자신의 칩 일괄 처리 크기가 1 인 네트워크는 대기 시간을 최소화하고 실시간 애플리케이션이므로 테슬라는 전적으로 자가 운전의 차 그리고 그들이 할 수있을 정도로이 전념을 가지고있는 것은 정말로 똑똑하다 비록 당신이 상상할 수있는이 특별한 분야에 정말로 전문화되어 있습니다 이 특별한 기술은 단지자가 운전을 할 수있는 것이 아닙니다

컴퓨터 비전과 같은 것에 필요한 실시간 처리 유형 기술의이 유형에서 거대하게 유익하십시오 당신은 어떤 유형을 상상할 수 있습니다 로봇 공학 무인 항공기는 그 유형의 것들 중 어느 것이나 대규모로 이익을 얻을 것입니다 기술의이 유형은 지금 가장 중요한 것 테슬라가 갖고 있다고 생각하는 경쟁 우위와 현재는 그들의 데이터입니다 내가 정말로 들어가기를 원하는 이유는 이것이 대부분의 기업들이 지금까지도 배울 수있는 부분 기계 학습이나 인공 지능을 따라 Andrew Ng Andrew Ng는 기계 학습 및 인공 지능의 사고 리더 중 한 사람이며 그가 말하는 것들은 요즘은 매우 쉽고 빠르게 복사하는 방법입니다 소프트웨어 소프트웨어의 어떤 부분이든 꽤 많이 복사 될 수 있습니다 몇 주에서 몇 달 안에 그리고 그래서 그것은 장애물이 아닙니다

더 이상 사용하지 않았던 항목을 복사하는 것은 정말 어렵습니다 누구나 데이터를 볼 수 있기 때문에 데이터를 볼 수 있습니다 그러나 데이터를 얻기가 매우 어렵다는 것을 복제 할 수있는 소프트웨어 많은 회사는 그다지 많은 데이터가 없기 때문에 이것이 때때로 대기업 중 일부는 실제로 경쟁 우위를 점하고 있습니다 이 방법은 작은 데이터를 말하는 것보다 훨씬 많은 데이터를 가지고 있기 때문입니다 신속하게 이동할 수 있지만 데이터를 보유 할 수없는 신생 기업 수집을 시작해야하는 신생 기업이라면 이제 비즈니스에 힘을 실어 줄 것입니다

어딘가에서 데이터를 얻으려면이 방법이 오픈 소스 일 수 있습니다 기업은 동일한 데이터에 액세스 할 수 있으므로 많은 데이터가 필요하지 않습니다 경쟁 우위가 있거나 자신의 데이터를 수집하기 시작하면 문제는 그것을 만드는 데 일정한 시간이 걸리고 그것을 개발하고 많은 시간을 들이지 않으면 다른 사람들도 해당 데이터를 수집 할 수 있으며 경쟁 우위를 상실하게됩니다 또한 이렇게하면 큰 조직의 장점 중 하나입니다 더 큰 조직이 가진 문제는 그들이 모든 것을 가지고 있다는 것입니다

이 데이터의 내용은 정확히 무엇을해야할지 모릅니다 다른 하나는이 데이터 중 일부가 수집 된 시점에 그들은 반드시 그들이 어떻게 그 데이터를 반드시 사용해야하는지에 관해 생각하지 않았고, 이것은 성공적인 데이터의 성공을 실제로 결정하는 열쇠 중 하나입니다 프로젝트와 실패한 데이터 프로젝트를 비교하면 Tesla 언급 한 첫 번째 사실은 Tesla가 2012 년 이후로 데이터를 수집하는 동안 이 데이터는 교육의 매우 구체적인 목적을 위해 자동차에서 가져온 것입니다 자동차 운전을 할 수있는 모델이 이제는 정말 중요합니다 여기서 중요한 것은 테슬라가 매우 구체적인 목적을 위해 데이터를 수집 한 다음 그들이 수집해야 할 것은 무엇이며, 필요한 데이터의 형식을 알고있었습니다

그들의 모델을 강화하기 위해 여기에있는 것이 많은 것입니다 많은 데이터가 수집되고 있어도 조직은 존재하지 않습니다 특정 목적으로 수집되므로 많은 시간 동안 많은 양의 데이터가 필요합니다 사용 가능한 경우에도 특정 질문에 대한 답변을 지금 사용할 수 없습니다 그들은이 데이터를 가져 와서 일부 모델로 가져 오는 것에 대해 실제로 생각하지 않습니다

실제로 의사 결정에 사용하기 때문에 많은 일이 발생합니다 소스 상태에서 데이터를 모델로 가져 오는 데 필요한 작업 그 (것)들을 사용하기 위하여 요구 된 그래서 Tesla가 진짜로 한 다른 것은 여기있다 그들이 수집해야 할 것을 앞에서 알고 있었고, 그 (것)들을 얻기 위하여 그 (것)들을 얻기 위하여는이 파이프 라인을 이미 개발했다 데이터를 자동차에서 매우 효율적으로 수집하여 시스템에 업로드합니다 그들은 그 정보를 처리하기 위해 그것을 사용할 수 있습니다 이 잘못은이 데이터 수집에 수천 번 더 쉽게 소비 할 수 있으며 대부분의 데이터와 대화하는 경우 데이터 정리 및 데이터 전환 단계 과학자들은 보통 시간의 80 90 %가 데이터 수집 데이터 전처리 및 피쳐 엔지니어링 및 이들 모두 선행에 대해 생각하면 사안의 90 %가 제거됩니다 데이터 과학자가 모델 교육을 받기 전에해야 할 작업 데이터를 가져 오기 시작하면 이제는 모든 결과가 나옵니다

모델을 사용하면 결과를보고 시작할 수 있습니다 이것은 엄청난 이점입니다 명심해야 할 중요한 다른 것 일단 데이터를 모델에 넣으면 필요한 몇 가지 사항이 있습니다 이 데이터에 라벨을 지정해야하며 데이터의 유효성을 검사 할 수 있어야합니다 결과가 모델에서 나오기 때문에 Tesla는 또한 그들이 이것을하는 방법에 관해 믿어지지 않는 정도로 영리하다 실제 운전자 운전 테슬라의 자동차는 지속적으로 시스템에 피드백을 제공하고 그들이 운전할 때마다 모델을 제공합니다

Tesla는 2012 년 이후로 데이터를 수집했습니다 7 년 동안 수백만 마일을 운전 해 왔고 절대적으로 믿을 수없는이 모델을 훈련시키는 것을 돕기 위해 시스템으로 돌아 간다 여기서 언급해야 할 몇 가지 다른 점도 있습니다이 모든 센서 차량에 의해 수집 된 데이터를 제동 가속 자동차의 레이더를 조향하여 모든 추가 센서 컴퓨터의 학습 내용을 검증하는 데 도움이되는 모델 검증에 도움을줍니다 그래서 기계 학습 모델은 다음을 기반으로 몇 가지 권장 사항을 만들 것입니다

모든 입력이 루프에서 다시 피드로 전달 될 것입니다 다른 모든 정보에서 수집 한 모든 정보와 비교하십시오 시스템이 자동으로 수행하므로 모든 것을 자동으로 처리합니다 엄청난 양의 작업으로 모델을 실제로 검증하고 있습니다 이러한 결과의 유효성을 검사하고 자동화 된 방법이없는 경우 이것은 테슬라가 시작하는 것처럼 여기에서 그들의 프로그램으로 그것을하는 것과 같은 방식입니다

그것을하는 컴퓨터로 분명하게하는 것은 매우 비실용적 인 일이 될 것입니다 사람들이 이것을해야만한다면 자동으로 수행합니까? 수백 명이 걸릴 것입니다 수천 시간이 아니라면 여기에 다음 일이 있습니다 나는 테슬라가 정말로 잘했다고 생각한다 이 시스템을 어떻게 사용하는지에 대해서 생각해 보았습니다

차를 운전할 수는 있지만 어떻게하면 생산 방식으로 돌릴 수 있을까요? 기본적으로 이것이 의미하는 바를 기본적으로 의미합니까? 자가 운전 차를 훈련하면 자기 운전 차를 갖기에 충분하지 않습니다 시뮬레이션 또는 원하는 자동차 프로토 타입 모델에서 잘 작동합니다 귀하의 최종 제품에서 작동하는 모델 이제 귀하의 끝자가 운전 자동차가 많이 있습니다 기업이 처음에는 데이터를 수집 할 때 매우 비싼 값을 사용합니다 데이터를 수집하는 방법이며 때로는 이것이 의미가있을 수 있습니다 생각해라

나는이 데이터의 가치가 아직 무엇인지 모르겠다 그러므로 나는 갈 것이다 이 데이터를 수집하고 수집하는 것이 가치가 있는지를 알면 이해가되는지 확인한 다음 그 중 일부를 기반으로 한 프로젝트를 개발하십시오 때로는 데이터를 수집하는 데 너무 비싸지 만 그 데이터를 수집하는보다 효율적인 방법이 없다 데이터는 귀하가 이전 할 때 시스템을 구동하는 주요 기능으로 밝혀졌습니다

당신이 발견 할 수있는 것은 그것이 단지 시스템을 실행하기 위해 데이터를 수집하는 것이 경제적으로 불가능한 경우 그런 다음 실제로 프로덕션에서이 기능을 사용할 수 없으므로 데이터가 수동으로 수집되고 있으며 데이터가 없습니다 사용할 수있는 센서 또는 자동 데이터 수집 프로세스 비록 당신이 그것을 구현할 돈을 가지고 있었다고해도, 어떤 종류의 데이터 수집 사람들이 모아서 잘 번역되지 않습니다 자동 수집되며 언제든지 데이터에 관련된 사람 수집 프로세스를 통해 즉시 확장 또는 배치 기능을 제거합니다 하나의 작업을 수행하는 사람이 좋아 시간이 필요하지만 실시간으로 필요하면 수천 번으로 확장해야합니다 데이터 수집 포인트의 일부를 포함하지만 이 과정이 완전히 끝나면 여기에 여러 번 있습니다 사람들은 깨닫지 못합니다

빠른 속도로 설정하는 것이 더 빠릅니다 자동화 된 데이터 수집 프로세스를 처음부터 일부 나중에 라인을 생각해 보니 테슬라가 그들이 지금 라이더에 대해 이야기하고있을 때의 흥미로운 점 라이더에 익숙하지 않은 당신의 레이더 시스템은 이 작은 점들과 데이터를 다시 모으고 당신의 3D지도를 만듭니다 환경 때문에 라이다가 근접성 문제를 해결하여 차를 운전하고 있습니다 근본적으로 지금 무언가에 충돌하지 않도록하고 싶습니다 Elon은 기본적으로 lidar가 우주 궤도에 사용하는 지금 바보라고 말했다

이런 종류의 물건 그러나 자기 운전 차를 위해 그것은 정말로 없다 훌륭한 솔루션 하나는 정말 비싸고 실용적인 솔루션이 아닙니다 배포하고 두 번째로 실제로 얻을 수있는만큼의 데이터를 수집하지 않습니다 당신이 자기 운전을 만들기 시작하면 카메라는 여기에 도전입니다 처음부터 차라리, 그것은 일종의 lidar와 함께 시작하는 것이 의미가 있습니다 이 근접 데이터를 즉시 모두 가져올 수 있기 때문에 그것은 읽혀지는 데이터의 감각이지만 궁극적으로는 드라이브하기위한 것입니다

당신이 컴퓨터 비전의이 요소를 필요로하는자가 운전의 자동차 비전을 사용하면 다양한 유형의 것이 무엇인지 감지 할 수 있습니다 자전거는 고양이가이 모든 것을 바람으로 날고있는 비닐 봉지라는 것입니다 정보 유형은 매우 유용하며 시스템에 상황을 알려줍니다 이제 컴퓨터 비전은 근접성을 감지 할 수 있지만 문제를 해결하는 복잡한 문제는 일단 당신이 이것을 해결하면 필요하지 않습니다 라이더가 더 이상 필요 없으며 이것은 Elon이 지적하고있는 핵심 요점 중 하나입니다

그는 컴퓨터 비전과 카메라로 처음부터 시작했습니다 처음부터이 모든 시스템은 매우 잘 훈련되어 이러한 유형의 일을 7 년간의 훈련 데이터로 구축 할 수 있습니다 이러한 매우 상세한 3D지도를 사용하지 않고도 환경 라이더를 사용하고있는 다른 회사가 Google과 마찬가지로 컴퓨터 비전 모델을 글쎄, 나는 그것이 논리적으로 합리적인 접근법이라고 생각한다 나는 테슬라가 여전히 가지고 있다는 것을 의미한다 레이더 시스템을 자신의 차에 넣고 이것을 사용하여 컴퓨터 비전은 다시 이런 종류의 상호 참조 데이터입니다

컴퓨터가있는 결과를 훈련하고 테스트하는 데 사용할 수있는 포인트 문제를 반환하는 것은 당신이 뭔가를주는 lidar를 좋아하는 것으로 시작하는 것입니다 이 모델을 훈련시키지 않고도 많은 데이터를 상자에서 꺼낼 수 있습니다 그러면 시간과 자원을 많이 낭비하지 않았을 것입니다 컴퓨터 비전을 대신 작동하도록 모델을 비우는 것이므로 정말 흥미로운 점은 필요한 데이터를 수집하고 있다는 것입니다 둘째로 어떻게 데이터를 수집하고 있습니까? 자동화 된 방식으로 수행되거나 3 단계로 자동화 된 방식으로 수행 될 수 있습니다

자동화 된 방식으로 작업을 수행하는 경우 자동화 된 방법입니다 생산에 투입하는 것이 비용 효율적 일 것입니다 아직 실용적인 솔루션이 아니므로이 모든 정보가 도움이되기를 바랍니다 왜 당신이 데이터를 가지고 나가고 데이터를 대여하는 것만으로는 충분하지 않은지에 대한 아이디어를 얻었습니다 과학자와 일부 데이터를 수집하고 당신이 정말로 가지고있는 일부 모델을 훈련 시작 매우 전략적인 종류의 방법으로 이것을 생각하면 그렇지 않을 것입니다

실제로 갈 기술의 가치를 추출해야한다 자신이 할 수있는 일에 대해 더 많이 알고 싶다면 비즈니스에 가치를 제공하십시오 데이터로보다 효과적으로 작업하고 좋은 데이터를 개발하는 방법 전략을 선택하면 wwwDataStrategyWithJonathancom에서 나와 연락 할 수 있습니다

이 동영상이 마음에 들면 엄지 손가락을 남겨주세요 시청 해 주셔서 감사합니다 다음에 너 볼거야 당신

BigQuery – End-to-End Machine Learning with TensorFlow on GCP from Google Cloud #6

출생의 데이터 세트는 BigQuery에 있습니다 Google Cloud Platform의 데이터웨어 하우스 BigQuery의 기능과 데이터 탐색을 위해 BigQuery를 사용하는 방법에 대해 간단히 살펴 보도록하겠습니다

BigQuery는 거대한 규모로 운영되는 서버가없는 데이터웨어 하우스입니다 서버리스입니다 BigQuery를 사용하려면 데이터를 클러스터에 저장할 필요가 없습니다 데이터를 쿼리하려면, 당신도 거대한 기계가 필요하지 않습니다 필요한 것은 API 호출뿐입니다

웹 브라우저에서만 BigQuery를 호출합니다 테라 바이트에서 페타 바이트까지의 데이터를 분석 할 수 있으며, 시간이 걸리지 않을거야 귀하의 질의는 수 초에서 수분 내에 완료됩니다 작성한 쿼리는 익숙한 SQL 2011 쿼리 언어로 작성됩니다 다양한 방법으로 섭취, 변형, BigQuery로 데이터를로드하고 내보내십시오

CSV, JSON, Avro, Google 스프레드 시트, 기타 해당 형식으로 내보낼 수도 있습니다 일반적으로 BigQuery의 표는 비정규 형식으로되어 있습니다 즉, 그들은 평평합니다 BigQuery는 중첩 및 반복 필드도 지원하며, 그리고 이것이 이것이 예를 들어, Jason은 계층 적 형식이므로 JSON BigQuery에서는 저장 공간과 계산이 분리되어 있습니다

따라서 저장소 비용을 줄이고 사용하는 비용을 지불하게됩니다 일률 요금제도 이용할 수 있습니다 그러나 대부분의 사람들은 온 디맨드 가격 모델을 추구합니다 BigQuery 쿼리를 실행하려면, 간단히 BigQuery 웹 페이지를 방문하십시오 bigquery

cloudgooglecom을 열고 SQL 쿼리를 입력하고 쿼리 실행을 누르십시오 쿼리를 실행하기 전에, 유효성 검사 단추를 클릭하여 처리 할 데이터의 양을 확인할 수 있습니다 쿼리는 처리되는 데이터의 양에 따라 요금이 부과됩니다

웹 콘솔로 수행 할 수있는 모든 작업은 Python 클라이언트를 사용하여 수행 할 수도 있습니다 따라서 옵션에는 현금화 할 대상 BigQuery 테이블 등이 포함됩니다 실험실에서 이것을 보게 될 것입니다 그러나 복사하여 붙여 넣기를 수행하고 쿼리를 시도하려는 경우, 다음 슬라이드에있는 쿼리에 대한 쿼리를 시도해보십시오 여기에 간단한 데모가 있습니다

이제 콘솔이나 bigquerycloudgooglecom으로 이동하겠습니다 BigQuery 안에 있습니다

그래서 창을 조금만 움직이면 볼 수 있습니다 그래서 거기에 있습니다 BigQuery를 사용 중입니다 내가 작성 쿼리를 말하고, 여기에서 쿼리를 선택하겠습니다 여기 쿼리가 있습니다

그것은 standardql 쿼리입니다 기본적으로이 특정 테이블에서 두 개의 열을 선택하고 있습니다 날짜별로 그룹화하고, 총 소유권 주장으로 초 단위로 주문하십시오 그런 다음 쿼리를 실행합니다 이것이 우리의 표준입니다

거기에는 공백이 없습니다 나는 쿼리를 실행할 것이다 우리는 거기에 갈 그것은 캘리포니아에는 116 백만개의 요구가 있고 프로리다에는 91 백만개의 요구, 등등이 있었다 요점은 수백만 개의 데이터 세트를 처리 할 수 ​​있다는 것입니다

3 초 이내에이 쿼리를 수행 할 수있었습니다

Get Started with GCP and Qwiklabs – Machine Learning with TensorFlow on GCP from Google Cloud #9

안녕하세요 과정에 다시 오신 것을 환영합니다

우리가 여기 강의에 너무 깊이 들어가기 전에, Qwiklabs라는 양방향 실습 랩 플랫폼을 미리보고 싶습니다 당신은 실제로 당신이 배울 많은 것들을 연습 할 것입니다 여기에 실제 Google Cloud Platform 계정이 있습니다 그러나 실제로 자신에게 제공 될 자격 증명이 필요하지 않습니다 이제 실험실 플랫폼이 어떻게 설정되는지 살펴 보겠습니다

Coursera 내부에서 실제로 보게 될 것입니다 외부 도구가 열리도록 표시된 실험실 또는 항목, 당신은 그 도구를 클릭 할 것입니다 그 다음에는 "Start Lab"버튼이 녹색으로 표시되고 그 기간 동안 실험실을 완료 할 수있는 타이머가 있습니다 학생 계정에 대한 "Start Lab"자격 증명을 클릭하면 자동으로 나와 새 상자가 나타납니다 또한, 또 다른 단추가 있어야한다고 말합니다

'Google 콘솔 열기'(노란색) 한번 열면 그러면 Google Cloud 플랫폼에 로그인하도록 요청할 것입니다 로그인 할 때주의해야 할 주요 사항 자신의 개인 계정이 아닌 학생 계좌를 이미 하나 설정해야합니다 마지막으로 몇 가지 데모를하고 UI가 어떻게 생겼는지 살펴 봅니다 자, 한번 살펴 봅시다 그래서 Coursera 코스의 예에서, 이런 식으로 보이는 실험실을 보게 될 것입니다

이것은 단지 예일뿐입니다 이것은 Lab 제로입니다 그러나 그것은 여러분이 발견 할 수있는 실험실 일 수 있습니다 일단 당신이 그것을 클릭하면, 실험실이 실행되도록 승인 할 체크 박스가 표시됩니다 Coursera에 대한 이용 약관에 동의하는 경우, "도구 열기"를 클릭하십시오

"Open Tool"을 클릭하면 그것은 Qwiklabs 환경으로 당신을 데려 갈 것입니다 여기에 주목해야 할 중요한 몇 가지가 있습니다 오른쪽에는 실제 실험실을위한 지침 창이 있습니다 이 실습실은 정신 연구소로서 Qwiklabs에 관한 전반적인 것입니다 그러나 당신의 코스가 무엇이든, 이것은 실험실을 완료하기위한 지시가 일어날 곳입니다

그래서, 당신은 항상이 프롬프트를 열고 싶습니다 이제 실제로 "Start Lab"을 클릭하면 프로비저닝 된 Google Cloud Platform 인스턴스 추가 인스턴스가 있으면 또는 VM과 함께 작업한다고 가정 해보십시오 실험실 제공 업체가 갖고 싶어하는 것이 있다면, 실제로이 실험실 인스턴스 내부에서 생성 될 것입니다 어느 것이 좋습니다, 그것은 "Send Box"인스턴스를 말합니다 이제 '시작 실험실'을 클릭하면 이 실험실을 완료하는 데 15 분이 걸리며 타이머가 당신이하려고하는 실험실을위한 추가 패딩과 연결될 것입니다

이것은 우리에게 15 분이 소요된다는 것을 의미하지는 않습니다 그래서 그것은 약 5 분이 소요됩니다 이제 내가 전에 언급했듯이, 사용자 이름과 암호 및 프로젝트 ID가 있습니다 지금해야 할 일은 'Google 콘솔 열기'를 클릭하는 것입니다 Google 콘솔을 열면 이메일로 로그인하라는 메시지가 나타납니다

이제 중요한 점은 이전에 Google 자원을 사용했다면, 즉시 당신은 당신의 개인 이메일을 타이핑하기 시작할 것이고, 나는 그것을 항상한다 당신이 돌아갈 수 있는지 확인하십시오 실험실 자격 증명 화면에서 자동 생성 된 사용자 이름을 복사하여 붙여 넣습니다 그것은 당신과 그것의 고유 한 될거야 실제로 실행하는 모든 실험실마다 고유하게 진행됩니다 따라서, 귀하가 실행하는 각 실험실에 대해 새로운 학생 계정을 생성하게 될 것입니다

해당 암호를 복사하여 붙여 넣으면 내 것과 다를 것입니다 그래서 그걸 복사하는 것에 대해 걱정하지 마라 브라우저에서 "다음"을 클릭하고, 그 암호에 붙여 넣기, 조건을 수락하고, 보조 전화 번호를 설정하는 것에 대해 걱정하지 마십시오 Google Cloud Platform 약관에 동의하십시오 이렇게 보이는 화면이 보이면 갈 수 있습니다

꼭 맛있게 먹어라 이것이 프로젝트의 선택자라면, 이 자동 생성 Qwiklabs 영숫자 여야합니다 어느 쪽인가 말한 것을보아야 만한다면, "Select a Project"가 표시되거나 "Qwiklabs Resources" 실제로 이것을 클릭하고 영숫자 Qwiklabs ID를 선택한 다음 "열기"를 누르십시오 일단 당신이 여기에 있으면, 당신은 잘 가야합니다 따라서 나머지 실험실 지침을 따르십시오

그것은 당신을 안내 할 것입니다 어떤 제품과 서비스를 당신이 함께 할거야 여기 왼쪽 상단에있는 제품 및 서비스 메뉴에 액세스 할 수 있습니다 또는 CloudShell에서 작동하는 연구소 인 경우 여기까지, CloudShell을 활성화하는 버튼입니다 Google Cloud Platform의 해당 터미널 인스턴스 마지막 몇 가지

뒤로, 우리 타이머가 자동으로 계속 실행되는 것을 볼 수 있습니다 일단 실험실을 마치면, 너는 그걸로 끝난다 실험실에서 또 다른 시도를하고 싶다면, 실험실 당 세 번 이상 시도가 있습니다 따라서 처음에는 실험실을 매우 빠르게 실행하고 싶습니다 두 번째로 실험하고 탐험 해보세요

몇 번이나 그렇게 할 수 있습니다 이제 완료 통계가 올바르게 기록되도록하려면 "End Lab"을 클릭하십시오 당신은 "모두 끝났습니까?"라는 메시지를 보게 될 것입니다 '실험실 종료'를 클릭하면 프로젝트, 모든 데이터 세트, 네가 내부에서 작업 한 모든 것 이 샌드 박스 프로젝트가 삭제 될 예정입니다

따라서 실행중인 검색어가 있는지 확인하십시오 내부에 저장 한 재미있는 메모 Google 클라우드 플랫폼 Qwiklabs 계정으로 연결하면 그 (것)들을 베끼고 풀고 그 (것)들을 다른 곳에 저장하십시오, 아마도 개인 Google Cloud Platform 계정에서 또는 어딘가에 당신의 기계에 어딘가에 '실험실 종료'를 클릭하면 실험실에 대한 피드백을 입력 할 수 있습니다 Coursera의 나머지 과정들과 계속해서 계속 진행할 수 있습니다 다시 한번, 빠른 요약

기억해야 할 핵심 사항 중 하나는, "도구 열기"를 클릭하십시오 그러면 Qwiklab이 열리게 될 것입니다 두 번째는 왼쪽에있는 자격 증명을 얻으려면, 타이머를 다시 시작하는 "Start Lab"을 클릭해야합니다 그 실험실이 시작되면 잠깐 멈출 방법이 없습니다 그러나 다시 한 번, 여러 번 시도해보십시오

마지막으로 준비가되면 '실험실 종료'를 클릭하십시오 네가 일하고있는 실험실을 완성해라 그게 다야, 나중에 와서 실험실과 행운을 빌며, 물론 즐길 수 있습니다

Introduction to Machine Learning on GCP – How Google does Machine Learning from Google Cloud #1

여보세요 나는 다이앤 그린이야

Google Cloud를 이끌고 있습니다 우리의 깊은 다이빙 코스에 오신 것을 환영합니다 실용적인 기계 학습 Google 클라우드 플랫폼을 사용합니다 수천 명의 Google 엔지니어가 서로 다른 변형을 겪었습니다 이 코스는 또한 여러 고객과 공유했습니다

이 과정을 통해 Python 프로그래머는 기계 학습을 할 수있게되었으며, 데이터 과학자들은 생산 준비가 완료된 기계 학습 모델을 구축합니다 이것은 우리가 사용하고 있기 때문에 가능했습니다 Google의 놀라운 인프라 및 ML 플랫폼 우리의 큰 글로벌 고객 중 한 명이 GCP 로의 전환, Google Cloud Platform은 조직의 사일로를 줄이는 데 도움이되었습니다 이것은 다음과 같은 이유로 인해 발생했습니다 BigQuery와 같은 글로벌 서버리스 인프라 및 TensorFlow와 같은 오픈 소스 소프트웨어, 이는 조직 전체에서 데이터 및 기계 학습에 대한 액세스를 민주화했습니다

이 Coursera 전문 분야에서, 복제 할 핵심 기술 스킬을 배우게됩니다 회사 전반에 걸쳐 이러한 변화를 주도하십시오 나는 당신이이 과정을 수강하고 훈련을 시작하도록 권하고 싶습니다 Google Cloud에서 기계 학습 모델을 배포 및 제공합니다 고맙습니다

고마워, 다이앤 나는 Valliappa Lakshmanan입니다 모두가 나를 락이라고 부릅니다 나는 기술 리드이다 Big Data and Machine Google Cloud에서 전문 서비스 학습

나는이 기계 학습 과정을 쓴 팀을 이끌었다 너와 나는 코스의 일부분도 가르 칠거야 시리즈 전체에 걸쳐 많은 저의 공동 저자를 보게 될 것입니다 Diane이 말했듯이이 전문화의 목표는 기계 학습에 대한 실용적인 실제 소개 목표는 당신을 가능하게하는 것입니다, 당신이 파이썬 프로그래머 데이터 엔지니어이든 데이터 과학자이든 상관없이, 기계 학습 및 구축 생산 기계 학습 모델

그래서 당신은 무엇을 배울 것인가?

Specialization Agenda – How Google does Machine Learning from Google Cloud #2

우리는이 과정으로 전문화를 시작합니다 Google이 ML을 어떻게 운영하는지, 내가 기계 학습과 우리가 먼저 AI라고 말할 때 Google이 의미하는 바

내 동료 조쉬 (Josh)가 Machine Learning 전략에 관해 이야기합니다 기계 학습을 수행하는 방법에 대한 두 가지 링크에 대한 설명으로 끝납니다 파이썬 노트북과 서버를 덜 사용하는 데이터 처리 컴포넌트를 사용합니다 자, 당신이 엔지니어이거나 과학자라면, 당신은 아마 이것이 모두 너무 높은 수준이라고 생각하고 있습니다 그리고 당신은 뛰어 넘을 준비가되어 있습니다

다음 코스는 TensorFlow의 기술적 세부 사항을 탐구하기 시작합니다 하지만 그 결정을 내리기 전에 당신에게 뭔가를 말하게하십시오 우리가 고객들에게이 과정들을 가르쳤을 때, 그 중 하나는 종종 모델이 조쉬는 가장 자주 방문한 사람이었습니다 6 개월 후에 다시 일하러 나갔다 그들이 가장 많이 보았던 모델은 Machine Learning의 전략에있었습니다

기술 세부 사항을 탐구하기 전에 큰 그림을 얻으려고합니다 큰 그림은 당신에게 매우 중요합니다 나머지 조직으로부터 들어갈 수 있어야합니다 이를 수행하기 위해 TensorFlow를 사용하여 기계 학습을 수행합니다 그것은 두 가지 측면을 포함합니다

하나는 좋은 기계 학습 데이터 세트를 만들고 두 개는, TensorFlow로 첫 번째 기계 학습 모델을 구축하십시오 기계 학습 데이터 세트를 만드는 것은 너가 묵살하고 싶지 않는 그 실제적인 모형 기계 학습 모델을 만들고 잘 작동하면 당신의 실험에서 그러나 생산에서 비참하게 실패합니다 그 이유는 종종 Machine Learning 데이터 세트를 작성한 방법으로 돌아옵니다 그러니 시간을내어 레슨을 흡수하십시오

그러면 우리는 기계 학습의 정확성을 향상시키는 두 가지 코스가 있습니다 처음으로 기계 학습 모델을 만들면서, 당신은 그 모델을 개선하기 위해 당신이 할 수있는 많은 것들이 있다는 것을 배울 것입니다 이 섹션을 도구 상자에 일련의 아이디어로 채우는 것으로 생각하십시오 상황에 따라 다른 아이디어를 사용하게됩니다 그래서 당신은 그것들이 도움이 될 것이라는 것을 알게 될 것입니다

당신이 다른 기계 학습 문제를 해결할 때 당신의 경력 이전과 마찬가지로 이름을 짓는 것만으로는 충분하지 않습니다 이러한 개념을 확인하십시오 당신은 그 (것)들을 이해하는 시간을 줄 필요가있다 코드로 구현하는 법도 알고 있어야합니다

그런 다음 일련의 과정으로 이동합니다 그것들은 기계 학습 모델을 조작하는 것에 관한 것입니다 앞서 언급했듯이, 기계 학습 모델 조작, 그리고 그 말은 내 말은, 예측을 제공하는 분산 방식으로 대규모로 교육하고, 엔드 투 엔드 (end-to-end) 모델 학습 모델 작성 컴퓨터 학습의 운영 모델은 매우 어려울 수 있습니다 대부분의 엔터프라이즈 Machine Learning 프로젝트가 실패하는 단계입니다 얼마나 많은 회사와 통화했는지 말할 수는 없지만, 누가 혁신 팀이 멋진 ML 프로젝트를 고안했다고 말했는지, 그러나 그들은 ML 모델을 프로덕션으로 만드는 데 어려움을 겪고있었습니다

이 일련의 과정에서, 우리는 훈련하는 방법에 대해 이야기 할 것이고, ML 모델로 제작 준비, 배포 및 예측을 할 수 있습니다 마지막으로 기계 학습 이론을 다시 살펴 봅니다 그러나 큰 공기 따옴표에있는 이론 기계 학습 이론은 주로 발견 적 방법입니다 기계 학습은 강렬한 휴리스틱 학문입니다

당신은 도구와 트릭의 가방만큼이나 좋습니다 그래서 우리는 많은 도구와 트릭을 소개합니다 기계 학습 모델의 입력이 이미지 일 때 작동합니다 처리에 도움이되는 도구와 트릭이 시퀀스를 출력합니다 Machine Learning의 시퀀스는 시계열 데이터 또는 텍스트 데이터 일 수 있습니다

마지막으로 강력한 추천 시스템을 구축하는 몇 가지 방법을 살펴 보겠습니다 추천 시스템 또는 맞춤 알고리즘을 작성하는 방법 그래서 대부분의 ML 엔지니어가 자신의 커리어에서 어느 시점에 구축 한 것입니다 실제로, 그것은 많은 사람들이 만들 유일한 ML 시스템 일 것입니다 그러나 강력한 추천 엔진을 구축하려면 도구와 도구를 이해해야한다는 것이 밝혀졌습니다

이미지와 시퀀스에서 빌려 온 트릭 그래서 우리는이 순서로 그들을 바라 보는 것입니다 그래서 그것이 우리가 보는 이유입니다 전문화가 끝나면 추천 엔진에서 자, 전에이 자료 중 일부를 접했을 수도 있습니다 특히 처음 네 과목에서

예를 들어, 기계 학습 데이터 세트 및 TensorFlow 기본 사항, 슬라이드 중 일부는 TensorFlow를 사용한 기계 학습 (Machine Learning) 그것은 Coursera에서 이용 가능합니다 마찬가지로 Google의 기계 학습 충돌 코스가 발생한 경우, 이것은 내부 Google 과정이지만 그것은 또한 몇몇 대학 캠퍼스에서 가르쳐졌으며, 당신은 그 물질과 특징의 일부를 찾을 수 있습니다 ML의 표현과 예술 그리고 과학은 익숙하다 그럼에도 불구하고, 세부 사항은 상당히 다릅니다 그러니 완전히 건너 뛰지 마십시오

이 과정을 유용한 재교육으로 간주하고 그 섹션들에서 제시된 아이디어들을 아직도 기억하고 있는지 확인하십시오

Why Google Cloud? – How Google does Machine Learning from Google Cloud #4

우리가 배웠던 중요한 교훈 중 하나 방법은 기계 학습 서비스에 대해 생각하는 것이 중요하다는 것입니다 ML 교육 만이 아닙니다

대부분의 사람들에게 기계 학습을 말할 때, 그들은이 다이어그램의 왼쪽에있는 복잡한 파이프 라인에 대해 생각합니다 확실히 당신이있는 곳입니다 데이터 엔지니어 또는 데이터 과학자로서, 많은 시간을 보낼 것입니다 그러나, 당신이하고있는 핵심 이유 기계 학습은이 다이어그램의 오른쪽에 있습니다 의사 결정자에게 그러한 예측을 제공하고 싶습니다

대시 보드, 응용 프로그램, 보고서를 사용합니다 우리가 의미하는 기계 학습 모델을 운영하는 것은, 훈련받은 모델 선택 그가 이러한 예측에 봉사 할 수있는 지점에 도달했습니다 기계 학습 모델을 운영하는 것은 어렵습니다 많은 프로젝트들이이 예측 단계에 이르지 못하고 있습니다 Google의 교훈 중 하나 우리의 실패 가능성을 줄이기 위해, 배치 데이터와 스트리밍 데이터를 동일한 방식으로 처리 할 수 ​​있어야했습니다

이 다이어그램의 Cloud Data Flow, 오픈 소스는 Apache Beam입니다 Cloud Data Flow는 배치 및 스트림을 동일한 방식으로 처리하는 데 도움이됩니다 따라서 클라우드 데이터 흐름은 Google Cloud에서 어떻게 당신은 우리의 경험을 이용하게됩니다 기계 학습 인프라 구축에 대한 Google의 경험 Coursera에서 데이터 엔지니어링 전문 분야를 선택하지 않은 경우, 나는 당신이 그것을 가지고 가기를 강력히 권합니다 그러나이 트랙에서, 우리가 따라갈 때 핵심 부분을 다룰 것입니다

다행히도 데이터 과학자들에게있어서, 데이터 공학은 배우기가 그렇게 어렵지 않습니다 GCP에서 주요 서비스는 모두 서버가 없으며 모두 관리 인프라입니다 그래서이 과정에서, 우리는 배치 및 스트리밍 데이터 파이프 라인을 구축하는 방법을 보여줄 것입니다 Google 클라우드에 데이터 파이프 라인을 구축하면, 당신은 본질적으로 확장 성을 활용하게됩니다 신뢰성 및 완벽한 엔지니어링 구글이 러닝 머신 학습 시스템에 가져 오는 탁월함

Why Google? – How Google does Machine Learning from Google Cloud #3

기계 학습을하는 방법에 대한이 과정은 기계 학습에서 일하는 Google 직원이 가르칩니다 그렇다면 왜 Google 및 Google 직원이 ML에 대해 알아볼 수 있습니까? Google에서는 기계 학습과 거의 모든 제품을 적용합니다

우리는 우리가 배운 것을 공유 할 수 있도록이 과정을 가르치고 있습니다 우리는 당신이 기반으로하는 것을보고 흥분합니다 이 과정에서 배우는 것 물론 Google Cloud를 구축하시기 바랍니다 기계 학습은 우리의 방식을 완전히 바꿔 놓았습니다

Google은 비즈니스를 수행하며, 새로운 제품 및 기존 제품에 접근하는 방법, 우리가 어떻게 제품을 디자인하고, 우리가 새로운 도전에 어떻게 접근하고 있는지 많은 사람들이 Google 서비스, 사진, YouTube, Gmail, Inbox를 사용하면 매일 이러한 Google 서비스와 상호 작용할 수 있습니다 이러한 모든 서비스는 다음과 같은 이점을 제공합니다 어떤 경우에는, 그들은 기계 학습에 의존합니다 우리는 기계 학습을 얼마나 많이 사용하는지 추적합니다

특히 깊은 학습 그리고 지난 몇 년 동안, 우리는 4,000 개 이상의 TensorFlow 기계 학습 모델을 생산했습니다 그 말을 네가 들었다, 4,000 Google에서 생산중인 TensorFlow 기계 학습 모델은 4,000 개가 넘습니다 2012 년에, 그 수는 0에 가깝습니다

그리고 2016 년 말까지, 우리는 4,000을 넘고 있습니다 그래서이 전문 분야에서, 우리가 사용하는 기술을 사용하는 방법을 배우게됩니다 이 과정에서는 엔지니어가 기계 학습을 제품에 주입시키는 방법에 대해 설명합니다