2019.09.21 Machine Learning for Designers at Fresh Eyes Berlin

안녕 여러분! 제 이름은 Nono Martínez Alonso입니다 디자이너들을위한 머신 러닝에 관한 연구는 제가 오늘 가져 오는 것은 이러한 사고 방식 또는 기술 변화의 의미에 대한 개요 또는 소개 디자이너 건축가 또는 아티스트 및 제작자에게도 또한 몇 가지 사례 연구 또는 개인적으로 수행 한 프로젝트 또는 다른 사람의 프로젝트를 사용한 적이있는 프로젝트 창의적인 노력을위한 활주로와 괜찮습니다

먼저 시작하겠습니다 Matt Turlock의 신선한 눈 워크샵 주제를 감사드립니다 Kyle Steinfeld가 여기에 있고 다른 사람들은 해외에 있습니다 Adam Menges Kat과 Samantha Walker는 2018 년에 나의 지오메트리 작업장의 일부였습니다 그들은 기계를 사용하는 것이 무엇을 의미하는지에 대해 많은 연구를 해왔습니다

학습 도구 또는 생성적인 건축 디자인이며 이것은 아닙니다 이 대화의 일부이지만 동일한 프레임 워크 내에서 알고 있으므로 지난 수십 년 동안 볼 수 있듯이 예를 들어 기계적으로 그리고 더 최근에 잉크로 쓰는 것 우리는 디지털 방식으로 또는 손가락을 두드리면서 변화하는 것을 보았습니다 전화와 우리가 지금 보는 것은 때로 지능형 일을하는 것입니다 인터페이스가 사라져서 컴퓨터로 기계식 타자기가 될 노트북 그리고 Siri가 어떤 식 으로든 바래 지도록 만듭니다 Kevin Kelly는 미래 학자이며 우리가 추가 한 모든 것을 썼습니다 지금까지 전기는 인텔리전스를 추가하려고합니다 그것이 보였고 나는 여기에 약간의 끄덕임 머리를 보았습니다

우리가 지금 만들고자하는 전기 또는 일종의 힘으로 자동화 더 지능적 일 수도 있고 스스로 반응하거나보다 효율적으로 작업 할 수도 있습니다 옳고 그름이 아닌이 전환은 우리가 우리가 그 전에 수동으로 일을 한 건설 산업 세계를 빔 기계적으로 자동화하여 로봇을 사용하고 있으며 이제 로봇을 사용하려고하지만 환경에 대해 좀 더 지능적이거나 현실 세계를 이해하는 방법이 있습니다 하지만이 변화 나이 변화가 디자인에서 중요하다고 생각하는 이유 내가 옳게 믿는 것은 최종 목표를 위해 정말 중요하다는 것입니다 우리는 우리가 사용했던 인터페이스를 디자인 프로젝트에 넣습니다 종이에 스케치 할 연필이 있고 우리는 손으로 이것을하지 않았습니다 컴퓨터로 자동으로 행을 작성하거나 선을 그립니다

두 지점을 클릭하면 이 프레젠테이션의 범위에 속하지 않는 한 가지 올바른 방법은 이 작업을 수동으로 수행하면 실제로 머신 러닝 알고리즘에 더 많은 힌트가 제공됩니다 이 네 줄은 우리 자신이 다르기 때문에 수천 명의 사람들에게도 똑같을 수 있습니다 선이 정확히 동일하지만 두 점을 동일하게 클릭하십시오 우리는 당신이 손으로 그것을 할 경우 각 사람이 다른 성격을 추가 할 것입니다 보았다 그들의 그림과 오늘 우리는 이와 같은 데이터로 건물을 정의하고 있습니다 예를 들어 Revit의 스크린 샷이며 때로는 선을 그리지 않습니다 또는 지오메트리 슬라이더 만 움직이고 매개 변수를 만들고 코드도 사용합니다 인터페이스로서 우리는 한 줄만 코딩하면 일부를 생성 할 수 있습니다 우리가 지금보고있는 것은 우리에게 도움을 요청하는 것과 같은 일을 할 수있는 인터페이스 컬러 드로잉 또는 집 또는 다른 무언가 새로운 패러다임을 제시 바로 이것이 제가 GSD에서 한 일과 새로운 패러다임의 일부입니다 디자이너가 프로그래머가 될 수있는 데이터 셋을 만들어서 올바른 이미지 세트를 선택하면 디자인 프로세스의 일부가됩니다

이미지가 잘 생겼기 때문에 나는 은유 적으로 옳다는 의미이기 때문에 학습 알고리즘의 일부를 변경하려고합니다 느낌에 따라 다르게 작동하도록 프로그램을 조정하는 방법 새로운 이미지는 물론 코드를 작성하는 대신 여기에 의존한다는 것을 의미합니다 우리는 이미지를 느끼는 알고리즘이며 알고리즘에 있습니다 그리고 다시 전환이 수동에서 아날로그에서 디지털로 진행되는 것처럼 우리가 지금 보는 것은 코드와 데이터에서 자동화 된 자동화 시대입니다 프로세스에 인텔리전스를 추가하면 머신에서 볼 수 있습니다

이전에 사용했던 프로세스를 자동화하거나 건너 뛰고 더 추가 할 수 있습니다 우리가 수행하는 프로세스와 내가 한 일에 대한 더 높은 정확도 로봇이나 기계가 작업이 아닌 작업을 대체하고 우리가 보는 것은 기술이 발전함에 따라 위협을 계속 움직입니다 우리가 인공 지능을 고려할 때마다 몇 년 전에 인공 지능으로 우리가 한계를 뛰어 넘는 새로운 목표 우리는 확인이라고 말 했으므로 그것은 새로운 알고리즘 일뿐입니다 우리가 도달하지 못한 것은 인공 지능입니다 그래서 우리는 계속 교체합니다

소규모 작업을 수행 한 다음 디자인을하거나 다른 방식으로 작업 할 수 있습니다 이것을 요약하면 자동화와 지능이 우리를 이끌 것이라고 믿습니다 반드시 설계되지 않은 작업을 건너 뛸 수 있도록 자동화 프로세스가 점점 더 잘 반복되고 실시간 피드백은 설계 프로세스를 실제로 다르게 만드는 예입니다 시뮬레이션 반복 시간을 15에서 단축 할 수 있다는 것을 알고 있습니다 몇 분에서 1 초까지 걸리며 여러 시간 사이에 반복 할 수 있습니다 며칠 또는 몇 시간이 아닌 1 분 안에 다른 디자인 옵션 이것은 우리의 로봇이 특정 작업을 대체하고있는 하나의 예입니다

목재 스터드를 움직이면 제자리에 고정해도되지만 그것이 제 위치에 있는지 확인해야하는 루프의 인간 그리고 나는 양키에게 인용하며 그와 대화를 나눈 것은 당신이 이미 디자인을 어떻게 알고 있는지 알고있을 때 일이 바로 작동합니다 그리고 당신은 단지 천 빔을 배치해야합니다 컴퓨터가 할 수있는 일입니다 더 이상 결정을 내릴 필요가 없습니다 모든 것이 결정론 적이므로 알고리즘으로 전달할 수 있습니다 우리는 디자이너들에게 내가하고 싶은 한 가지 일을 할 필요가 없습니다 이 워크샵은 또한 우리가 말할 때 우리가 의미하는 바를 조금 명확하게하는 것입니다

내가 이미 알고있는 개념이 조금 있습니다 우리가 전산 설계 유전자 설계 인공을 갖도록 명확히하고 싶습니다 지능 기계 학습 및 일반 확산 지능 및 무엇 전산 설계 우리는 그것이 무엇인지 모르지만 일련의 명령을 정의합니다 디자인을 얻는 단계를 정의하는 규칙 및 관계 정보 생성 디자인 Kyle은이 개념을 워크샵에 대한 작은 조정이지만 일반적으로 처리로 정의합니다 설계자는 설계 매개 변수 및 계산 모델을 정의합니다

형상을 생성하고 기계는 설계 옵션을 생성합니다 일련의 목표에 대해 평가하고 목표에 따라 목표를 개선합니다 얻은 결과는 최적화하려고 시도한 다음 각각의 순위를 매 깁니다 목표를 달성하기 위해 얻은 결과에 따라 디자인 옵션 당신은 디자이너로서 당신이 프로세스에서 올바르게 설정하므로 원하는 것을 가공하되 최고의 결과를 얻으십시오 컴퓨터가 대화식 디자인의 다이어그램임을 최적화하려고합니다

컴퓨터가 분석 및 순위를 생성하고 진화해야하는 워크 플로 그래서 당신은 그것이 얼마나 좋은지를보고, 진화하고 인공 지능에서 루프의 모든 단계를 조금 더 개선하십시오 이제 그것은 과대 광고 용어이므로 우리는 그것이 무엇을 의미하는지 알고 있지만 작은 구별이므로 일반적으로 시도하는 모든 기계와 알고리즘입니다 인지 기능을 어떻게 말하는지 모방하지만 우리의 방법과 전통적인 인공 지능에 맞는 몇 가지 뉘앙스 우리는 70 년대에 개발 된 클래식 인공 지능을 오늘날 우리가 사용하는 것들은 4050 년 전에 고전처럼 개발되었습니다 진영 문제 또는 다른 많은 문제의 다락방 알고리즘 검색 우리가 오늘 더 집중하고있는 머신 러닝은 알고리즘입니다 명시 적으로 배우지 않고 모범을 통해 배우고 개선 할 수있는 능력 새로운 데이터 세트를 위해 프로그래밍되었으며 최근에도 호황을 누리고 있습니다 새로운 신경망 아키텍처와 GPU의 힘 그리고 일반적인 인공 지능은 우리가 당신이 신과 같은 것으로 알고있는 것입니다 우리가 어떻게 행동하는지 생각하는 방법을 복제하는 방법을 아는 생물 내가 결정한이 프로젝트를 통해 말할 것입니다

때때로 다른 곳에서 그러니까 그림이 내 주인의 것이면 예라고 말하십시오 하버드 디자인 스쿨 대학원에서 논문을 작성했는데 사물의 아키텍처 측면을 살펴보고 디자인 분야의 행 머신 러닝 장소 기계가 래스터가있는 이미지로 작업하기가 더 쉬워지기 전에 주석 처리됨 벡터 데이터보다 오늘날의 데이터를 사용하므로 일반적으로 그림을 사용합니다 우리가 보는 것처럼 세상을 대표한다고 생각하고 이미 존재하는 것을 보았습니다 우리의 삶을 편하게 만들어주는 드로잉 소프트웨어 복사 / 붙여 넣기 및 사물 복제 또는 복제를 수행하고 CAD를 사용하면 정말 쉽게 만들 수 있습니다 형상이나 반복적 인 형태와 복잡한 형상은 기계 안에 있지만 우리가 이해한다고 정의하면 프로세스가 실제로 참여하지 않습니다 세상을보고 기계를 표현함으로써 몇 번의 머신이나 프로그램에서 세상을 어떻게 해석해야하는지 정말 소위 생각합니다 그들은 좁은 길 눈이라고 불려 요 새를 그리는 법만 알기 때문에 나는 동그라미를주고 세계와 당신은 저녁 식사를 그립니다 당신이 무엇을하든 상관 없습니다 새와이 급등한 인공 지능과 기계로 만들어 학습은 예를 들어 컴퓨터가 우리를 도울 수 있도록 컴퓨터를 도와줍니다 계속하거나 나는이 프로젝트의 전제였던 그림을 그렸습니다

프로젝트는 고전 도구 모음에서 벗어나려고했습니다 컴퓨터 프로그램에서 포인트 앤 클릭을하고 왼쪽에서 볼 수 있지만 왼쪽에서 볼 수있는 것은 당신의 결과를 알고 당신이 해결하고자하는 것을 알고 당신이 원하는 종류의 그 루프에서 벗어나 컴퓨터는 바로 그 경로를 제공 할 수 있습니다 올바른 길로 올라갈 수있는 최적의 길은 조각 과정입니다 다른 모양을 가질 때마다 탐색 할 수 있습니다 재평가 당신이이 프로젝트에서 우리가 볼 수있는 것입니다 기계 또는 파티 물고기 지능이 당신을 가져 오는 시간 그림을 색칠하는 방법에 대한 제안은 다른 그림을 계속 그릴 수 있습니다

응용 프로그램 자체가 iPad 응용 프로그램 이었기 때문에 왼쪽에있는 모든 태블릿이나 컴퓨터를 사용하는 다른 사람 일 수 있도록 도와주는 상담원 또는 그림을 계속 사용할 수있는 전화 또는 봇 Photoshop 레이어처럼 보이지만 역사는 각 에이전트가 프로젝트에 실제로 추가 한 도면 당신은 여기에있는 모든 것을 볼 수 있습니다 그리고 당신은 모든 자원과 사물을 가지고 있고 중간에 드론 오른쪽 우리 모두가 내가 어떻게 보이는지 알고 있지만 이것은 공유 모두가 동시에 볼 수있는 캔버스와 내가 개발 한 것은 봇 세트는 맞지만 각각 봇은 좁지 만 특정 행동을했습니다 예를 들어 올바른 질감은 도면의 질감을 생성합니다 당신은 계속 스케치 ATAR 우리를 계속하려고 할 것입니다 스케 쳐가 필요한 다음 단계로 그림을 채 웁니다 손 스케치 텍스처처럼 보이는 것과 다른 이름으로 설명이 필요하지 않습니다

하단 그러나 그들은 개념적으로 거기 있었고 그들이 할 수있는 명확한 방법이 있습니다 예를 들어 분류기를 합리화하도록 개발하십시오 학습자 주변 학습자 개념은 아마도 가장 흥미로울 것입니다 생성하는 동안 피드백 루프를 만드는 것을 의미하기 때문에 봇이 수행 한 작업에서 배울 수있는 그림의 역사 향후 제안을 위해 지식을 재조정 프리젠 테이션 몇 주 전에 제작 한 프로토 타입으로 봇에게 데이지에 대한 제안을 해달라고 말하고 데이지는 맞지만 이것이 생성 적 적이라고 불리는 것을 볼 수 있습니다 결과를 보간 할 수있는 네트워크는 직사각형의 꽃이 없었습니다 훈련 세트의 꽃잎이지만 알고리즘은 무언가를 짜려고합니다 꽃 모양의 무언가를 생성하기 위해 그 모양으로 시스템의 백그라운드에서 백그라운드에서 Pix2Pix를 실행합니다

이 신경망 아키텍처를 만들지 않았지만 Phillip Isola가 수행했습니다 버클리에있는 그의 팀과 오른쪽에는 내가 그것을 사용할 수있게했던 텐서 플로우 크리스토퍼 헤세가 만든 그는 정말 바이러스 성했기 때문에이 프로젝트를 알고 내일을 잘라 가장자리와 내가 강조 할 한 가지는 당신이 잘 하자는 것입니다 이 비자에 중점을 두어 텍스처입니다 나는 다른 유형의 꽃으로 다른 유형의 드레스 또는 다른 훈련 훈련 세트와 나는 단지 기계가 실제로 무엇을하는지 탐구하고 있었다 이건 스케 쳐 였기 때문에 제가 손으로 스케치 한 것 같아요 나무의 육십 사 스케치 도면 우리 엄마에 의해 실제로 그녀는 내가하는 동안 케임브리지는 그녀가 스페인에 있었고 그녀를 도울 수 있도록 내가 무엇을 할 수 있는지 말했다 실제로 64 그루의 나무를 스케치했고 우리는 훈련했습니다

나중에 보여 주면 아마 내가 가장 좋아하는 것이 이것은 신경망을 사용하여 그리는 더 추상적 인 것입니다 제대로 그려지지 않을 것으로 예상되는 것들 알고리즘의 장점을 알고있을 때 알고리즘이 작동하도록하기 위해 그러나 당신이 훈련되지 않은 무언가를 그리려고 할 때 그것은 조금 실제로 알지 못하고 일부를 생성하려고 시도합니다 그것이 맞지 않는 가장자리 케이스와 같은 것이지만 어쩌면 그래도 어쩌면 그것은 우리에게 그림에 대한 영감을 줄 수 있습니다 1000 드레스의 스케치 그것은 잘 작동하지 않았지만 내가 긁은 1000 드레스입니다 Met Museum 웹 사이트에서 수십만 개에 달하는 거기에서 얻을 수있는 것들과 이것으로부터 쉬운 것은 우리가 온라인으로 바로 얻을 수 있다는 것입니다 우리는 그것을 긁습니다 우리가 사용할 수없는 저작권이나 다른 것들이 있지만 실제로 사람이 직접 손으로하는 것이므로 나무는 왼쪽에 손 스케치입니다 우리는 무언가로 가장자리 추출을 수행합니다

Mathematica와 같은 또는 심지어 Photoshop으로 할 수 있다고 생각합니다 이것과 같은 것입니다 그래서 이것은 당신이 증강을 사용하는 훈련 세트입니다 400 개의 샘플이 회전하거나 크기가 조절되는 기술 이 오른쪽으로 돼지와 같은 것을 돼지에게 훈련시킬 수 있습니다 윤곽선의 그림과 질감으로 채 웁니다

Mathematica를 어떻게 사용합니까? Mathematica는 H 추출을 갖습니다 알고리즘 예 예 그리고 당신이해야 할 것은 당신이해야 할 유일한 것은 매개 변수로 조정하여 그렇습니다 요약하자면이 프로젝트의 중요성은 각 트레이닝 세트가 이미지를 변경하면 알고리즘이 완전히 달라집니다 결과적으로 코드 라인을 코딩 할 필요가 없기 때문에 쉽습니다 방금 입력 한 코드를 작성할 필요가 없으며 이것이 바로 내가 한 일입니다 프로젝트의 마지막 30 일 동안 나는 하루에 8 시간 후에 밤에 기차를 타면 깨어날 것입니다

준비가 되었으면 시도해야하며 60 %라고 말합니다 내가 어떤 종류의 것을 배우기 시작했을 때 내가 잘 해낸 것들 중 훈련 세트가 더 잘 작동했고 그때가 좀 더 재미있어지기 시작했습니다 하지만 때로는 직관적으로이 일이 내가 준 것에서 많은 패턴이 있지만 실제로 보지 못할 것입니다 꽃 이랑 같이 정말 반복적이기 때문에 반응이 빠릅니다 그림에 꽃이 어떻게 나타나는지에 대한 패턴이지만 괜찮습니다

암시 그림 이미지는 마지막으로 몇 가지를 보여주고 싶은 것을 보여줍니다 활주로와 함께 실험적인 것들 활주로는 실제로 새로운 도구입니다 cristóvão Valenzuela와 그의 팀에 의해 개발되었으며 이것은 그들이 시작한 스타트 업 나는 1 년 전에 그렇게 생각하지 않습니다 그들이하려고하는 것은 응용 프로그램이나 기계 주위에 프레임 워크를 제공하는 것입니다 잘 모르는 창조적 인 사람들을위한 올바른 제작자 학습 Python은 github 및 복제 저장소에 대해 많은 코딩에 대해 모든 일을하고 어쩌면 내가 말하는 것을 이해하지 못한다면 그게 당신을위한 것이며 그들은 쉽게 다운로드 할 수 있도록 노력하고 있습니다 컴퓨터에서 로컬로 실행하기 위해 서버에서 실행하도록 모델 또는 클라우드에서 실행하고 모델을 교육 바로 그것이 그들이 지금 만들고있는 것들 중 하나입니다 다른 아키텍처에서 새로운 모델을 쉽게 훈련시킬 수 있습니다

사실 저는 작년에 개인적으로 Christopher와 인터뷰를했습니다 그녀가 내가 재미 있다고 말한 것은 그가 가장 좋아하는 사용자 인터페이스 중 하나입니다 Spotify이고 나에게 이것은 머신 러닝의 Spotify처럼 보입니다 당신은 여기에서 볼 수 있습니다 조금 바뀌는 것 같습니다

다시하지만 이것과 비슷해 보이므로 집에서 실례합니다 이것은 PostNet 모델로 호출 할 때 새로운 작업 공간을 만드는 것입니다 이것이 비디오에서 골격을 얻는 오픈 소스 모델이라고 가정하거나 이미지를 배경으로 해당 모델을 다운로드하여 얻을 수 있습니다 실행하기 때문에 코드를 작성할 필요가 없었습니다 알고리즘은 그들이하는 일을합니다

비디오 또는 카메라에서 가져온 카메라를 JSON 형식으로 출력합니다 여기에서 렌더링하지만 JSON 형식으로 진행됩니다 다른 응용 프로그램에서 웹 사이트 또는 메뚜기 또는 그 정보를 바로 읽으려는 다른 장소 이것에 대해 똑같은 것은 타일 전송이므로 모델이 있습니다 여기 사산이나 다른 예술가들처럼 당신도 그 삶을 할 수 있고 부모님의 오래된 사진에서 찍은 사진이며 이것은 이미지를 채색하는 것입니다 웹캠에서 실시간으로 볼 수 있으므로 사진을 색칠 할 수 있습니다

그들이 만들고있는 것의 모델은 인프라와 포장입니다 모델과 오픈 소스 및 커뮤니티는 모델을 추가하여 실제로 내가 이것에서 정말 좋은 점은 그들이 액세스를 민주화하고 있다는 것입니다 나 자신에게조차도 시간을 찾기가 어렵 기 때문에 기계 학습 권리 다른 모델을 사용하는 방법을 배우십시오 예 예 예 그것은 인간의 골격에 배출됩니다 활주로가 아니에요 활주로가 열렸습니다 베타 버전이 더 잘 열렸습니다 당신은 그것을 다운로드하고 그것을 시도 할 수 있습니다 정말 멋지다 다른 두 팀원의 이름을 잊어 버렸습니다

진 코간 GN 코간은 내가 생각하지 않는 것 같아요 그는 자신이 자문위원회에 있었거나 안녕 이제 당신은 코데인 트레이 사람 코데인 기차로 이름을 얻지 못합니다 일반적인 데니 업적 그렇습니다 그들은 그들을 도와 주지만 회사에는 3 명의 핵심 인력이 있고 팀의 규모가 커지면서 또 다른 빠른 예입니다 이것은 하나의 개념입니다 저는이 모델을 보았습니다 가장자리에서 Tacey로 바로 갈 수 있다는 것을 보여 드렸습니다

스페인어 나는이 물건을 번역 할 시간이 없었으므로 여기의 개념은 하나의 도면에서 텍스처로 바로 이동하여 모델이 그리고 오늘 아침에 얘기 한 내용은 등급보다 높은 점수를 매기는 모델은 분류기에 당신은 데이지처럼 보이지 않거나 옳지 않은 것으로 보입니다 유형별로 분류 된 종류를 찾은 다음 메뚜기 다이너 모와 같은 것으로 말 그대로 이미지를 입력했을 수 있습니다 출력을 얻은 다음 분류하면 꽃처럼 보이는지 알 수 있습니다 그런 다음 생성 모델로 되돌아 가서이를 최적화하는 방법을 확인할 수 있습니다 점점 더 비슷한 꽃처럼 보이기 때문에 매번 종류의 꽃과 비슷하도록 출력을 최적화하고 있습니다

그리고 이것은 또 다른 실험이므로 이것은 때때로 직장에서 일한다는 것을 보여주기위한 것입니다 우리는 일 년에 한 번 일주일에 두 번 실험 프로젝트를 얻습니다 활주로와 함께 연주하고 스타일 전송 알고리즘 중 하나를 사용하여 실제로 작업장에있는 클러스터 인 응용 프로그램 우리 옆에있는 것은 우리 앱 중 하나의 초기 단계였습니다 3D 큐브처럼 보이지만 텍스처를 렌더링하기 위해 활주로 2에 연결했습니다 실시간 괜찮아 5 ~ 10 번 정도 속도가 빨라지지만 항상 해당 이미지의 텍스처를 생성하기 위해 활주로를 얻습니다

평범한 큐브를 사용하면 다음과 같은 모양이됩니다 붓과 유성 페인트로 연필로 그린 것입니다 다른 스타일 그게 다야 그리고 내가 이것과 함께하는 유일한 닫는 의견입니다 이미지는 이것이 또한 당신에게 가능성을 제시 할 수있는 것입니다 이미지의 렌더링 프로세스를 건너 뛰는 것을 알고 있으므로 왼쪽과 오른쪽에 텍스처가 생겼습니다 이 이미지는 시간을 절약 할뿐만 아니라 v- 레이를 지불 할 수도 있습니다

이 모델에는 스타일이 포함되어 있으므로 다른 소프트웨어의 경우 3D로 무언가를 조작하고 실시간으로 출력을 얻습니다 감사합니다 당신

Lecture01 Supervised Learning Setup of [Cornell CS4780 Machine Learning for Decision Making SP17]

노트북 규칙을 알려주세요 강의실의 권총은 괜찮아요

감사합니다 실제로 새로운 MacBook Pro에는 문제가 있으며 문제는 모든 프로젝터에서 작동하지 않지만 이것은 VGA이므로 이것이 잘 작동합니다 알았어 이건 잘 됐어 내가 학생에게 한가지 빠른 이야기 파이썬과 같은 많은 사람들이 내 탓에 그들은 분명히 옳았습니다 가까웠지만 알고 있었지만 줄리아를 언급하는 것을 잊어 버린 한 가지는 MATLAB과 동일한 구문이므로 MATLAB을 알고 있다면 Julia도 줄리아에게 호의를 베풀어야 할 것들을 바꾼다 글쎄 그는 소음이야 오 그래 괜찮아 비교 파이썬 그래도 넥타이는 괜찮아 적어도 괜찮아 줄리아에 대한 흥분 나는 당신과 함께 모든 크리스마스를 보내고 휴가를 알고 괜찮아 좋았어 지난번에 와디 기계 였어 백그라운드에서이 사람을 알아봐 기계 학습에 내 동생을 이길 수있는 내 자신의 터미네이터를 갖고 싶었다 내가 15 살이었을 때 알았어요 괜찮아요 그래서 당신이 무엇에 대한 나의 견해에 대한 높은 수준의 개요를 주겠습니다 기계 학습으로 기본적으로 당신은 전통적인 컴퓨터 과학이 아닙니다 최소한 당신은 그것에 대해 뭔가 알고 있고 기존의 컴퓨터 과학은 컴퓨터가 중간에 있고 일부 데이터가 있습니다

입력과 같은 데이터는 예를 들어 mp3 파일이 될 수 있습니다 음악 파일 나는 비디오 파일 또는 무언가이고 당신은 약간의 출력을 생성하고 싶어 프로그래머가 들어오는 곳 프로그래머는 기본적으로 입력에서 데이터를 가져 와서 출력을 생성하는 생성 예를 들어 음악 파일 인 mp3 파일을 재생하려면 전에 프로그래밍 과정을 수강했다면 알 겠지요? 어떻게 하시겠습니까? 음, 당신은 Wikipedia를 찾을 것입니다 mp3 파일의 사양은 무엇입니까? 그리고 긴 주말에 앉아서 무언가를 쓸 수있을 겁니다 Python 또는 C에서는 흰색 파형 등을 생성하는 파일 디코딩을 수행합니다 올바른 파형을 생성하는 등의 작업을 수행 한 후 며칠 동안 데이터를 생성하고 생성하는 날짜를 갖는 프로그램이 있습니다 내가 직면 한 문제의 종류가 아닌 괜찮은 출력 추가 머신 러닝 사람으로서 제가받는 문제는 이 권리와 같이 누군가가 의대 학교에서 나에게 와서 여기에 F는 이 사람의 fMRI 스캔 및이 사람이 가지고 있는지 알고 싶습니다 알츠하이머가 옳고 그름이 아니며 문제는 Ricka pedia 페이지가 없다는 것입니다

알고있는 정보를 추출하는 방법을 생성하는 방법 fMRI 스캔 바로 당신이이 시점에서 프로그램이라면 당신은 당신이 너무 행복하지는 않지만 매우 구체적인 유형의 문제라는 것이 밝혀졌습니다 할 수있는 것은이 특정 이미지로 당신을 도울 것입니다 하지만 의사가 다시 돌아가도록 요청하면 실제로 과거 파일을보고 자신이 가지고있는 fMRI 이미지를보십시오 아마 5 년 전에 모아서 지난 5 분 안에 그 사람이 알츠하이머를 가지고 있거나 사실이 아닌 경우 실제로 명백해진 몇 년 그는 오래 전에 사람들에게서 찍은 과거 이미지를 찍을 수 있고 이제 주석을 달 수 있고 알츠하이머를 가지고있는 것으로 밝혀졌습니다 이건 괜찮아서 내가 할 수있는 일은 본질적으로 데이터를 수집 할 수 있다는 것입니다 어떤 출력을 원하는지 알기 때문에 기본적으로이 사람을 말합니다 대답은 그렇습니다

그는 알츠하이머를 가지고 있습니다 그녀는 알츠하이머 등을 가지고 있지 않습니다 이베이의 기계 인 머신 러닝은 당신이 알고 싶은 데이터와 출력에 충실한 입력 그 데이터와 기계 학습 알고리즘에 대해 갖고 싶습니다 이 데이터를 크런치하고 해당 데이터를 다음과 같이 제공 한 경우 프로그램을 출력합니다 입력은 출력을 생성 할 것입니다 때때로 우리는 프로그램을 교체하고이 프로그램은 문자 그대로 종종 C 코드가 될 수 있습니다

효율적이지만 이것을 C 또는 다른 프로그래밍으로 알 수 있습니다 당신이 가지고있는 언어 코드는 일반적으로 매우 예쁘지 않습니다 매우 길고 cryptic 등등하지만 당신은 그것을 통해 갈 수 있다는 것을 알고 있습니다 물론 우리는이 의사에게 돌아가는 명백한 일을합니다 그게 나에게 처음 왔고 이제는이 프로그램을 가지고 있는데 그가 실제로 또는 그녀가 알고있는 데이터 포인트는 내가 지금 분석하기를 원했습니다

이 프로그램을 사용하면 출력이 생성되고 내 예측입니다 이 부분은 훈련하고이 부분은 모든 질문을 테스트합니다 이것을 통해 앞으로 훨씬 더 자세히 알 수 있습니다 어느 날 아침에 이것이 마지막으로 제공 할 PowerPoint 사이트입니다 실제로 모든 것이 거꾸로 될 것입니다

이것은 처음에 사람들이 이것을 생각해 냈는데 이것은 미친 아이디어처럼 보였습니다 당신도 당신처럼 프로그램처럼 알고있는 당신도 이것을 할 수 있습니다 컴퓨터 사용이 많은 프로그램 자체를 알 수 있습니다 수년에 걸쳐 당신은 그것이 실제로 작동하고 요즘 실제로 무엇을 알고 이것에 대해 매혹적인 것은 기본적으로 알고있는 프로그램을 작성할 수 있다는 것입니다 지금 당장 많은 일이 될 것입니다 자동으로 만들 수는 있지만 다른 한편으로는 당신이 프로그램을 작성할 수있는 가장 매혹적인 부분입니다 방법조차 모르지만 당신도 원하지 않는 프로그램을 생성 할 수 있습니다

기계 학습이 공식적으로 이루어 지도록 해당 프로그램을 작성하는 방법을 알아야합니다 실제로 그것은 이전의 날짜이지만 첫 공식 내가 알고있는 정의는 1997 년 Tom Mitchell에서 왔으므로 그는 작성하고 보냈습니다 컴퓨터 프로그램 a가 경로의 일부 클래스와 관련하여 경험하고 성능 측정 P P로 측정 한 T의 경험 II로 향상됩니다 짧은 버전은 경험이있는 작업을 개선하는 알고리즘입니다 맞습니다

당신은 E와 P가 없으면 아주 간단합니다 다시 여기로 돌아 가면 개선이 잘되는 이유는 무엇입니까? 여기에 더 많은 데이터를 주면 기본적으로 더 나은 프로그램을 생성 할 수 있습니다 맞습니다 저는 더 나은 데이터를 제공할수록 좋습니다 프로그램이 좋을수록 우리는 그것을 배우는 것이 좋습니다 조금씩지나 가서 메모리 레인을 내려 가서 이 작업을 수행하는 방법과 약간의 역사에 대해 살펴보기 전에 이 모든 것이 어떻게 시작되었고 내가 어디에서 왔는지에 대해 그 분쟁은 경험에서 배운 첫 번째 알고리즘이지만 1952 년 사무엘 체커 선수 였어요

지금 기계 학습을 고려하지만 기본적으로 누군가가 처음 등장했습니다 실제로 당신은 상점과 이동에 대한 기본 지식을 배우는 것을 알고 있습니다 데이터베이스에서 실제로 더 많이 플레이하면 결국 더 나은 체커를 얻습니다 그 이후로 실제로 문제가 해결되었으므로 AI의 벤치 마크였습니다 그런데 이번에는 기계 학습 기계에 대한 언급이 없었습니다 돈은 아직 존재하지 않았으므로 필드는 실제로 당신이 알고있는 이 시점에서 사람들은 처음에는 인공 지능이라고 불렀습니다

결국 기계 학습은이 검사기에서 나타났습니다 알렉스의 세계 챔피언이 있었다 동안 잠시 동안 I에 대한 벤치 마크 작업으로 알렉스 체커 그는 놀랍게도 아마 당신이 알고있는 최고의 인간이었을 것입니다 누군가가 당신을 위해 무패했다는 것을 우리를 확인하지 마십시오 10 년이 지난 지금은 그에게 가장 큰 꿈이었던 것을 무시했습니다 인공 지능 분야는 마침내이 사람을 이길 수 있었고 많은 시도와 회전을 시도했습니다 그는 항상 컴퓨터를 이겼다는 것을 알고 결국에는 여기에서 정확히 잊어 버린 프로그램을 잊어 버렸습니다

그는 그 후 매우 짧게 죽었고, 그래서 나는 이것을 조사하고 그가 아닌 그가 실제로 발견 한 직후에 그가 죽었다는 우연의 일치 말기 암과 그는 이미 자신의 죽음의 침대에 있었을 때 그는 며칠 만에 죽어가는 병원 이 컴퓨터 프로그램과 그들이 그를 이길 때 예, 당신은이 측면을 가지고 내가 그런 느낌을 몰라 AI는 당신이 그를 어쨌든 체커처럼 무패 죽게 할 수있게 해줄 수 있었습니까? 실제로 지금이고 문제를 해결하므로 어떤 위치에 대해서도 최적의 위치 최적의 움직임이 이루어지고 흰색이 항상 승리합니다 이제 더 이상 도전이 아닙니다 그런 의미에서 게임이 아닙니다 내가 첫 번째 기계 학습 알고리즘이라고 부르는 것은 실제로 Frank Roosevelt에 의해 1957 년에 코넬은 사람들이 거기에서 이야기하고있는 것을 자세히 알고 있습니다 그것에 대한 전체 강의하지만 이것은 오늘날에도 여전히 사용되는 알고리즘입니다 당시에는 정말 혁명적이었습니다 궁극적으로 이것은 인공 신경 네트워크 또는 딥 러닝은 오늘날 그가 발명 한 것과는 거의 차이가 없습니다

그래서 그는 기본적으로 그의 내부를 가지고 있었고 당신은 그것이 그가 실제로 무엇을 놓치고 있는지 알 수 있도록 그래서 그는 오늘날 우리가 가지고있는 큰 컴퓨터를 가지고 있지 않았고 환상적이고 이것은 우리가 이야기 할 독창적 인 알고리즘입니다 곧 명심해야 할 것이 있지만 이것은 내가하지 않을 것입니다 이것에 대해 너무 많이 이야기하지만 기본적으로 그는 매우 훈련 할 수 있습니다 그는 컴퓨터의 속도에 매우 제약을 받았기 때문에 소규모 네트워크 그리고 1957 년에 이것은 아마도 모든 컴퓨터 전원에서 전 세계가 당신의 전화보다 적기 때문에 그는 주로 친구를 사귀 었습니다 분석은 매우 제한된 단일 층 퍼셉트론과 같았습니다 정확하지만 이것이 나왔을 때이 시간에 큰 것이있었습니다 그래, 네가 할 수있는 것처럼 새로운 것이었기 때문에 흥분 내가 경험할 수있는 경험에서 배울 수있는 알고리즘 체커는 어느 정도 맞습니다

그래서 사람들은 정말 정말 많은 자금 지원 연구가 있었으며 장군들이 이미 꿈을 꾸고 있다는 것을 알았습니다 엘리자베스 장군은 우리가 가진이 수준에 대해 꿈을 꾸지 않았어요 그런 종류의 악몽이지만 실제로는 그렇지 않았습니다 AI 겨울이라고 불리는 것이 가장 많이 AI였습니다 붐 사람들은 정말 흥분해서 집에서 첫날이었습니다 이것이 나왔을 때 AI에 대해 흥분했고 모두가 그것에 대해 이야기하고있었습니다

신문 기사 등 Minsky와 Papert에 의해 책을 온 그들이 AI를 죽일 의사가 있다고 생각하지는 않았지만 실제로 이러한 알고리즘을 분석하고 매우 간단한 모두가 X 또는 데이터 세트를 이해할 수있는 데이터 세트 그것에 그것을 그릴 수 있고 그들은 perceptron에 행과 피가 있다고 말할 수 있습니다 단일 레이어 퍼셉트론은 그 날짜를 결코 배울 수 없으며 간단한 공간은 단지 네 가지 점입니다 우리는 당신이 실제로 배울 수 없다고 말할 수있는 우리의 서클에 플러스 이것들을 구별하고 모든 사람들이 그렇게 간단한 것 같습니다 그들이 제대로 배울 수 없다면 그들이 어떻게 될 수 있는지 이해 여기에 분리 장치가 있다는 것을 알고있는 것처럼 킬러 로봇 실제로 일어난 일은 e에 대한 자금입니다 미국과 전세계 대부분의 국가에서 인공 지능 겨울이라고 불렀지 만 사람들은 여전히 ​​당신이 알고있는 우주에서도 이것을 언급합니다 사람들은 정말 환멸을 느꼈지만 사람들은 그렇게 말했습니다 우리는 인공 지능을하지 않고 잠깐 기다립니다 우리는 완전히 다른 기계 학습을합니다

그리고 당신이 알고있는 사람들이 실제로 캠프와 이것은 비꼬는 방법이지만 내가 어디서 왔는지 그렇습니다 그러나 어느 정도는 당신이 알고있는 오래된 것이 연구 영역이 죽었다 새로운 접근법에 직면 할 순간도있다 어쩌면 전에는 아니었고 진지하게 받아 들여지지 않았기 때문입니다 사람들이 올바르게 생각하는 방식은 사람들의 선을 따라 있지 않다 갑자기 새로운 접근법이 심각하게 받아 들여질 것이라고 생각했습니다

기본적으로 머신 러닝을 배치하는 방법은 자금을 얻고 싶다면 머신 러닝을해야하지만 다른 한편으로는 실제로 차이가 있었고 나는 차이점은 인공 지능이 두 배라는 것입니다 우리가 인간과 같은 것을 만들고 싶다고 말하십시오 인간이 매우 열심히 생각하고 시도하는 문제에 매우 중점을 두었습니다 알고리즘으로 해결하십시오 기계 학습은 더 상향식 접근 방식은 컴퓨터에서 시작하여 훨씬 더 훌륭합니다 기본적으로 내가 당신에게 당신의 기초를 찾으려고 당신의 기초를 바로 앞에서 말한 것 기계에서 알지 못하는 데이터에서 무언가를 배우는 프로그램 본질적으로 인간을 본질적으로 창조한다는 것을 알고 싶은 야심은 실제로 없습니다 좋아 당신과 같은 무언가와 그것은 매우 다른 접근 방식이 될 수 있으며 그것은 매우 잘 모르는 일을 할 수 있기 때문에 해방 뇌에서 무슨 일이 일어나고 있는지에 대해 잘 알고 있습니다

우리가 가지고있는 컴퓨터 하드웨어와 컴퓨터 하드웨어는 인간의 뇌는 매우 중요한 또 다른 것입니다 논리가 아닌 통계 및 최적화에 중점을 둔 학습 컴퓨터 과학은 전통적으로 논리가 매우 뛰어나다 당신 사이의 강력한 연결은 당신이 주장하는 방식대로 대부분의 알고리즘을 알고 있습니다 알고리즘은 스루 로직이며 이는 AI에 대해 생각하고 스타 워즈와 같은 오래된 영화를 보면 자연스럽게 선택 인공 지능이 제시되는 방식은 완전히 논리적입니다 그들이 존재하는 모든 권리 c-3po와 같은 모든 것은 항상 논리적입니다 그것이 사람들이 IR을 실제로 읽는 것처럼 생각하는 방식이기 때문입니다 오래된 신문 일부 사람들은 당시 인간이 완전히 당신이 아는 것처럼 논리적 인 것은 뇌에 있다는 것입니다

모든 것이 매우 분명한 것은 많은 친구가 없었지만 음 궁극적으로 잘못된 접근 방식은 사람들이 당신이 퍼지 로직을 개발하는 사람들과 같습니다 불확실성 때때로 우리는 단지 우리가 아닌 것에 대해 믿습니다 사람들이 실제로 만들었 듯이 당신은 분명한 진실이 없다는 것을 알고 있습니다 이 진술은 예 또는 아니오의 표시등입니다 표시등이 켜져 있으면 불이 꺼지면 아무 것도하지 말고 전등을 켜고 때때로 당신은 무언가에 대한 올바른 접근 방식과 올바른 접근 방식을 확신하지 못합니다 그건 통계 학자들이 당신에게 불확실성 나는 그가 오래된 통계가 아니라고 말하는 것이 아니라는 것을 알았습니다

통계가 아니라 기계는 확실히 훨씬 더 낭만적이거나 1994 년에는 최적화 기반 접근 방식이 매우 흥미 롭습니다 내가 처음이라고했기 때문에 이것이 절정이라고 말할 수있는 곳 시간은 있지만 사람들은 그 아이디어가 연구원들이 일을하고있는 순간에 그들은 자신의 거품에 있지만 때때로 그들은 주위 사람들을보고 세계는 무슨 일이 일어나고 있으며 그 순간은 1994 년이지만 Jerry는 티저 또는 이븐에서 백개 먼 플레이어를 썼으므로 사람들이 주사위 놀이 그것은 실제로 전세계에서 매우 매우 인기있는 게임이다 미국을 제외한 모든 국가는 사람들에게 게임을 제공하지 않지만 실제로는 그것은 당신이 세계의 큰 부분에서 큰 추종자를 가지고있다 그것은 매우 매우 세계 선수권 대회 등 경쟁 Jerry는 기본적으로 방금 프로그램을 작성했습니다 이동이 합법적이며 쉬운 지 확인한 다음 그는 동점을 알고 있습니다 사람들이 게임 플레이가 작동한다고 생각하는 방식은 사람들은 AI를 사용하여 이것이 어떻게 작동하는지 알고 있습니다 당신은 당신이 체커를하는 것을 알고 당신이 이것을 할 것이라고 알고 당신이 할 수있는 모든 가능한 움직임을 겪고 있다고 말하면 내가 상대라면 내 행동을 상대는 그 움직임을 만들 것입니다하지만 내가 무엇을 할 것 나는이 이동 설정을 시도하고 당신은 항상 보드를 뒤집어 결국 이제 누가 더 좋아 보이는지 말하고 지금 상대방이 그보다 더 좋아 보인다면 나쁜 시작 위치와 내가 그보다 나아 보인다면 그는 좋을 수도 있습니다 그 대신에 그는 대신 인공 신경망을 가져갔습니다

기본적으로 당신은 1957 년에 발명 한 그 무엇을 침식하든 새로운 네트워크가 선택하기로 결정한 것처럼 그래서 그는 당신이 여기에 새로운 법과 그룹이 할 수있는 모든 법적인 움직임 목록을 알고 있다고 말했습니다 연주 할 게임을 선택하고 그가이 작업을 수행했을 때 알고리즘이 완전히 임의의 움직임이 제대로 작동하지 않았지만 아무것도하지 않지만 그는 무언가를했습니다 정말 멋진 그는 네트워크를 가지고 프로그램을 그 자체로 당신은 같은 프로그램의 두 사본을 가지고 있었고 편지는 결국 그들 중 하나가 바로 무작위로 이기고 예쁘게 만듭니다 무작위 움직임이지만 그들 중 하나가 이기고 당신이 한 일이 좋았다고 말하십시오 그리고 당신이 한 일을 잃어버린 다른 사람은 그가하려고하는 것을 기초로해서 너무 나빴습니다 긍정적 인 피드백을받을 때마다 네트워크가 강화되도록 노력하십시오

더 적은 것을 시도하기 위해 부정적인 피드백을 받으면 더 많이 피드백 루프 아기가 방금 이걸 내버려두면 집에 갔다가 자기 자신을 상대로 경기를하고 밤새 도망 치는 규칙을 다음날 아침에 그는 다시 시도하려고하는 프로그램을 그는 그녀가 하룻밤 사이에 연주했던 프로그램을 잃는다 그러나 다른 입력은 그가하는 것보다 더 잘 연주하는 법을 배웠습니다 당신이 알고있는 추방은이 사무실은 다른 사람들과 같은 프로그램 권리 와이 사람들의 모든 하나 하나를 이길 수 있도록 그가 정말하는 일은 그가 알고있는 세상을 부르는 것입니다 주사위 놀이에서 세계 선수권 대회와 조직 이 프로그램을 가지고 정말 정말 잘 재생할 수 있습니다 당신은 정말 주사위 놀이를 알고 정말 잘하고 나는 세계 챔피언에 도전하고 싶습니다 그들은 호기심이 많았고 세계 챔피언은 관심이 있었고 실제로 약속과 그들은 서로에 대해 그리고 그 동안 그는 당신이 알고 그 방법으로 그 프로그램을 자신에게 몇 백 재생하자 백만 번 백만 번 및 페이스 오프와 프로그램에서이긴 그리고 그것은 가격에 의해 두 사람이 완전하고 사람들이 놀랍게도 잘 지내고 나서 프로그램은 스스로 배우기 때문에 모르는 것처럼 프로그램을 어떻게 수행합니까? 사실 당신에 의해 Jerry는 그런 좋은 주사위 놀이 선수 행동이 아니라는 것을 알고 있습니다 실제로 그와 이야기를 나 told 다가 나중에 실제로 잘 말했지만 그래서 그는 당신이 그가 주사위 놀이에 대해 너무 많이 이야기해야한다는 것을 알고 있기 때문에 그는 실제로 그것에 정말로 들어가기 시작했지만 당시에는 실제로 프로그램과 같은 좋은 선수는 그보다 훨씬 더 좋았습니다 그는 실제로 주사위 놀이 지식을 놀라운 것은 세계 챔피언과의 얼굴을 벗고 프로그램은 매우 흥미로운 움직임을 만들었습니다 챔피언은 미쳤다고 생각했는데 전혀 좋은 움직임이 아니 었습니다

실제로는 아주 좋았 기 때문에 세계 챔피언이 실제로 사본을 요청했습니다 그 프로그램의 분석을 시작한 다음 실제로 실제로 저평가 된 개구부는 실제로 새로운 것으로 나타났습니다 기본적으로이 프로그램이 발견했고 실제로는 이 문제가 발생한 후 그의 상사 IBM은 정말 흥분했다 이것처럼 대단하지만 왜 아무도 신경 쓰지 않습니까? 백엔드 그래서 그들은 체스를하자 그래서 그들은 다시하지만 그들은 알고 이번에는 큰 팀과 많은 자원을 모아서 당신은 당신이 세계를 알고 알고 도전 카스파로프 당시 챔피언, 아마도 최고의 선수 중 하나 인류의 역사와 두 번째 경기에서 그들과의 경기 게리 카스파로프가 처음 이겼을 때 두 번째로 딥 블루는 실제로 공평 함을 얻지 못했습니다 접근 방식은 미니 맥스 전통적인 AI 접근 방식에 가깝습니다 정말 안전했지만 위치가 좋은지 평가하는 것은 이제 기계 학습은 어디에나 있습니다 검색 엔진이 야후를 잃어버린 적이 있습니다

예를 들어 나는 어떤 검색 엔진이 완전히 우스운 지 생각합니다 문제는 우리가 수십억 개의 웹 페이지를 가지고 있고 당신은 세 단어로 입력하고 이 세 단어를 바탕으로 검색 엔진이 이 수십억 개의 웹 페이지 중 제대로 작동하지 않는 모든 것을 명확하게 원합니다 어떻게 잘 작동합니까 이유는 인간이 실제로 매우 가지고 있기 때문입니다 당신이보고 싶은 것과 당신이 많이 알고있는 예측 가능한 기대 나쁜 페이지는 그리 흥미롭지 않으므로 실제로 수행되는 방식 실제로 실제로 배우지 만 Google, Yahoo 및 Bing 등 그들이하는 일은 실제로가는 수백 명의 사람들을 고용하는 것입니다 Google에서 무언가를 검색 할 때마다 놀라운 검색 엔진이 있습니다 이 사람들 중 하나에 도달 할 수있는 작은 기회와 그들이하는 일은 실제로 웹 페이지에 레이블을 지정하고 이것이 정답이라고 말하십시오 좋은 대답이었습니다

이것은 좋은 대답이 아니며 기본적으로 알고 있습니다 이 모든 것을 큰 학습 알고리즘에 넣고 학습 알고리즘을 좋은 답변이 무엇인지, 물론 그것에 대해 무엇을 알고 있는지를 배웁니다 스팸 기능은 실제로 실제로 제공되는 좋은 예입니다 스팸 구덩이를 작성하기가 어렵고 알고있는 원자로를 만드는 것은 거의 불가능합니다 두 가지 이유로 스팸 이메일이란 무엇입니까? 당신은 모든 사람들을 키우고 싶지 않습니다 그렇지 않으면 이러한 이메일을 원합니다

주식 또는 주식 옵션 또는 나에게 맞는 이메일에 대한 예제 이메일 난 정말 관심이 없기 때문에 항상 BAM하지만 당신은 내가 알고 누군가가 실제로 당신은 그들에게 실제로 재정을 잘 알고있었습니다 그것은 옳지 않으며 당신이 언제 어디서나 당신이 알고있는 스팸 필터를 훈련시킬 수 있습니다 당신의 시어머니로부터 이메일을 받겠습니다 스팸이라고 생각하는 것이 아니더라도 매우 주관적입니다 한 가지 문제인 정의 두 번째 문제는 당신이 말한대로 딱딱한 스팸 바닥 글 작성 예를 들어 viagra라는 단어를 알고 있습니다 이것이 스팸이 아닌 것을 알고 있습니다 하지만 비아그라 스팸이 많은 우와 소년처럼 누가 더 나아질 지 간단하지만 이메일에 새 비아그라가 있습니다 스팸 일 가능성이 있습니다

사람들이 실제로 이메일을 아는 사람은 거의 없습니다 넌 비아그라를 좋아한다는 걸 알 잖아 사람들은하지만 당신이 이것을하는 순간 제대로 작동하지 않습니다 스패머가 철자를 잘못 입력하여 눈이나 다른 순간에 약간 다른 것을 알고 적대적인 행동이기 때문에 여전히 메시지가 나타납니다 사람들은 실제로 즉시 스팸을 보내는 방식을 바꾸고 당신은 전체 프로그램을 다시 작성해야합니다 학습에 관한 좋은 점은 당신입니다 새 데이터를 가져 오면 5 분 후에 다시 학습 할 수 있습니다 실제로 새로운 스팸 필터를 사용하여 실제로 새로운 방식으로 적용 할 수 있습니다

스팬 모양 또는 실제로 우리가하는 방식 인 기본 온라인 교육을 수행 할 수 있습니다 스팸 메일을받을 때마다 조금씩 훈련하므로 항상 작동합니다 여기 뉴스의 다른 예를 최신 상태로 유지하여 Google 뉴스가 실제로 Lindsay에 관심이있는 것 같습니다 Lohan 잘 나는 그것이 슈퍼가 아닌 것 같아서 부모님을 올바르게 배우고 기본적으로 당신에게 새로운 이야기를 제안합니다 코넬의 많은 연구에 대한 사람들의 이야기는 자율 주행 차가 그렇습니다 현재 가능한 이유는 실제로 기계 땅을 통하는 것입니다

바로 전에 많은 센서가 주변에 있었거나 일부 센서가 있습니까? 새로운 개발이지만 당신이 기본적으로 배울 수 있다는 사실 자동차를 안전하게 운전하는 방법부터 게임 체인저 였고 몇 년 전에 기억했던 것에 놀랐습니다 내가 물어 보면서 아마 10 년 전에 물어 볼까 우리가 자율 주행 차에서 얼마나 멀어 졌습니까? 몇 년 내내 알다시피 사람들은 기본적으로 운전자 공동을 시작합니다 이유는 실제로 많은 것들이 갑자기 모여서 갑자기 많은 문제가 발생하기 때문에 이러한 도약을 얻습니다 해결 후 당신은 그들을 함께 넣어 갑자기 큰 일을 할 수 있습니다 그리고 언제 멈출 것입니다 물론 우리는 이것을 가지고 있습니다

인간의 두뇌 인 우리 앞에 매달려있는 당근 인간의 뇌는 정말 큰 컴퓨터 일뿐입니다 우리는 인간이 실제로 학습에 능숙하다는 것을 알고 있습니다 원리는 알고리즘의 실제 구현이 매우 유사합니다 매우 다르지만 좋은 점은 기본적으로 우리는 심지어 우리는 요즘 깊은 사람들이 주장하는 것을 많이 할 수 있도록 인간의 두뇌보다 더 나은 학습이 가능합니다 그들은 그들이 당신에게 할 수있는 매우 구체적인 것들을 잘 알고 있다는 것에 동의하지 않습니다 훈련 할 수있는 매우 구체적인 작업이 있는지 알기 위해 깊은 신경을 훈련 시키십시오 알고리즘은 더 나아지지만 인간은 너무 많은 일을 할 수 있습니다 그것은 확실히 어떤 의미에서 저를 계속 고용하는 좋은 소식입니다

그것은 어떤 의미에서 우리가 아직도 알고있는 것이 많다는 것을 의미합니다 여전히 다른 일이 기계라는 많은 기회를 많이 가지고 있습니다 지금 배우는 것은 당신이 모든 것에 적용되는 것으로 빠른 속도로 알고 있다는 것입니다 생물학과 화학 분야의 사람들이 10 년 정도 전 컴퓨터 과학 이외의 사람들과 이야기하면서 박사 학위를 받았을 때 나는 그들에게 내가 생각하는 것을 아무도 모른다는 것을 배우는 것을 의미하지 않는다고 말했다 당신이 알고있는 것처럼 기계를 만드는 것에 대해 생각했을 것입니다 완전히 알려지지 않았고 이제는 생물학 화학의 사람들이 당신은 기계 학습을하는 사람에게 말하고 그것들을 오버레이합니다 당신은 우리가 이야기해야 그래서 지금 바쁘다 알고 갑자기 당신은 사람들을 알고 공통점이없는 느낌이 같은 알고리즘을 사용하여 데이터를 예측하고 예측하는 것은 매우 강력하고 여전히 기계 학습 알고리즘을 설계하기 어렵다 실제로 새로운 알고리즘을 설계 할 수있는 사람은 많지 않습니다

의미 있고 유용한 소규모 커뮤니티이지만 많은 사람들이 있습니다 누가 그걸 사용할 수 있겠 어 그래 그래 좀 더 괜찮아 다양한 버전의 버전 중 하나가 있으며 대략 학습 학습과 3 가지 유형의 기계 학습이 있습니다 비지도 학습 및 강화 학습이므로이 수업은 실제로 첫 번째 수업에 대해이 수업에서는지도 학습에 대해 이야기 할 것입니다 지도 학습은 fMRI에서 방금 말씀 드린 내용입니다 데이터를 제공하고 데이터에 대한 답을 알고 싶습니다 해당 데이터에서 해당 출력에 대한 해당 응답으로 이동하는 함수 스팸 필터 및 검색 엔진 등 비지도 학습은 내가 당신에게 줄 때 데이터가 있지만 여기에 MRI 이미지가있는 것처럼 말하는 라벨이 없습니다

여기서 흥미로운 일이 벌어 질 수도 있고 반복되는 패턴 또는 이와 유사한 클래스 기계 학습 데이터 과학은 주로 이것을 다루고 있습니다 기본적으로 우리는 이것을 대체합니다 두 개의 수업은 강화 학습과 강화 학습은 당신이 얻는 마지막에 잠시 동안 무언가를하는 것입니다 피드백을 알고 당신이 그게 좋다는 것을 알고 있습니다 주사위 놀이에 사용되므로 AI 과정과 로봇 코스 또한 사막에는 상당한 중복이 있고 우리가 사용하는 방법은 피드백이 통합되는 방식입니다

분명히 기계 학습은 고용주가 원하는 최고의 기술입니다 불행히도 요즘 나는 이곳을 어디에서 얻었는지 기억하지 못한다 누군가는 인터넷에서 주장하지만 그것은 12 IT 기술의 목록이었다 고용주들은 이제 조금 늙었다 고 말할 수는 없지만 빌 게이츠가 획기적인 머신 러닝이 10의 가치가 있다고 말했다 마이크로 소프트는 이제 기다리고있다 머신 러닝은 다음 인터넷 머신입니다 오늘날의 순위는 대부분 실제 기계 인 기계의 문제입니다 학습은 실제 진화론에서 학습하게 될 것입니다 오늘은 마지막 슬라이드 인 불연속입니다 지금부터 우리는 내가 방금 말한 것들에 대한 질문을 칠판으로 바꿀 것입니다 이 작업을 수행하는 동안 메모를 전달하거나 사람들이 수행하는 방식을 전달할 수 있습니다

사람들이 당신을 받아 들일 때 내가 뭔가를 쓴다는 것을 알면 정말 마음에 들지 않습니다 칠판 그리고 당신은 전체 클래스가 내가 말하는 것을 적어 둔다는 것을 알고 있습니다 하나는 내가주의를 기울여 내가하고있는 일은 내가 정확하게 노트를 줘서 그래 어떤 의미에서 정보 이점이 없다는 것을 알고 있으므로 이것들을 돌려주고 단점이 있다는 것에 자유롭게 주석을 달아 라 내 필체의 메모와 지금 사과합니다 내가 무슨 말을하는지 알아 좋아 좋아 오늘은 50 분 밖에 안 남았 어 조금은 내가 적어도 시작 사람을하자 그래서이 제목입니다 즐길 수 실제로 전체 수업은 전체 수업을 감독 학습과 무엇 적어도 오늘하고 싶은 것은 설정을 공식화하는 것입니다 레벨 목표와 우리가 무엇을하려고했으며 무엇을 주었습니까? 이것을 수학적 표기법으로 작성한 다음 몇 가지 기본 사항을 제공하십시오

과정 전반에 걸쳐 사용되는 용어이므로 귀하가 귀하를 알고 있는지 확인하십시오 이것은 우리가 정확히 물건이기 때문에 이것에 익숙해 지십시오 전체 수업을 사용할 것이므로 학습을 감독 한 수준이 시도는 데이터로부터 예측을하는 것이므로 설정이 데이터 세트와이 데이터 포인트의 D를 라벨이라고 부릅니다 그래서 우리는 내 X가 내 데이터이고 Y가 출력 인 n 쌍의 점이 주어집니다 레이블이라고 부르는 기능을 생성하고 싶습니다 스팸 필터링과 관련하여 전자 메일이 될 것입니다 스팸을 추가하거나 스팸이 아님을 알 수 있습니다

주식 시장의 권리 그는 그가 주식에 대한 몇 가지 설교를 바쁘게하고 여기 위 또는 아래를 의미합니다이 타코 앱을 예측하려고합니다 이 데이터 포인트는 일부 분포에서 샘플링되었으며 XIYI인지 확인합니다 찌르기 아래 샘플은 PP입니다 우리가 가지고 있지 않은 분포입니다

그것에 대한 접근은 오직 하나님 자신 만이 아는 분포입니다 기본적으로 데이터의 출처는이 배포판에 v-8 액세스 권한이 있다는 것입니다 모든 것이 쉽지만 우린 가능성이 없습니다 여기에 누군가를 무작위로 골라 MRI 스캔을한다면 당신은 그들의 두뇌를 알고 기본적으로 당신이 내가 경우 MRI 스캔을 알고 이 작업을 반복적으로 수행하면 MRI 스캔이 일부 배포됩니다 그 과정을 통해 알았어 그것은 일부에서 온 이상한 분포입니다

대자연 괜찮아 우리는 전자 메일의 측면에서 알고있는 이것에서 세타를 관찰 이것은 당신이 어떤 이메일을 샘플링했는지 알고있는 배포판입니다 일부 사람들이 뉴스 레터에 가입하는 것처럼 약간 다를 수 있습니다 받은 편지함에 도착하는 전자 메일의 배포를 변경하는 cetera 우리가하고 싶은 것은이 특정 데이터를 가져 오는 것입니다 기본적으로 X에서 Y로가는 함수를 배웁니다 이런 종류의 데이터는 여러 가지가 있다는 것을 알고 있습니다 가장 일반적인 경우는 시계열 중 하나입니다 시계열은 지금 이것들이 iid라고 가정합니다

iid가 무엇을 의미하는지 알고 있습니다 누가 너의 손을 들었는지 알 겠어 그것들은 모두 배포판 P와 B에서 나 왔으며이 중 하나는 괜찮다고 알고 있다면 다른 사람에 대해 이 XS는 무엇이며 이러한 권리는 무엇입니까? 이 XS는 내가 Chloe ax라고 부르는 공간에서 왔고 Y는 이 클래스에서 곱슬 Y라고하는 공간 그는 일반적으로 실수의 d- 차원 공간이므로 기본적으로 우리는 데이터를 가져 와서 데이터를 숫자이므로 d 숫자를 가진 벡터이며 모든 것을 요약합니다 우리는이 특정 데이터 인스턴스에 대해 알고 있습니다 예를 들어, 이것이 전자 우편의 단어라고 생각하면됩니다 이 작업을 잠시 수행하는 방법을 보여 주므로 지금은 항상이 작업을 수행 할 수 있다고 가정하고 당신이 그것에 대해 생각하면 실제로 매우 끔찍한 후보로 밝혀졌습니다 컴퓨터에 데이터를 저장하면 컴퓨터가하는 일 그것은 긴 숫자 파일을 가지고 있습니다

그것은 길이 T의 벡터입니다 당신은 그것이 항상 어쨌든 가능하다는 것을 알고 있습니다 실수와 d 차원 피처 공간은 우리가 언급 한 것입니다 X는 기본적으로 ithe 데이터 샘플을 나타내는 벡터입니다 ice email 또는 ice MRI 스캐너 weii이지만 뒷면에서 읽을 수 있습니다 별로 좋지 않아 내가 쓴 것을 더 잘 알지 분필 괜찮아 라벨 괜찮아 줘 내일 아침에 더 큰 분필을 가져 와서 좋아요 왜 레이블 공간 곱슬 곱슬하고 당신이 원하는 대답이 놀랍습니다 예를 들어, 시차가 스팸이 아님을 아는 SSI를 알기 위해 Y가 내게 해줄 수있는 몇 가지 예를 들어 보겠습니다

오 해안은 어땠어? 좋아, 내가 예를 들어 줄게 예제 하나는 이진 분류이므로 왜 이진 분류입니까? Kelly y가 0 또는 1이거나 빼기 1 또는 1로 쓸 수도 있습니다 더하기 1이므로 여기 예는 전자 메일 스팸 필터링입니다 우리는 기본적으로 마이너스 1은 스팸이고 플러스 1은 나쁘지 않다고 말합니다 두 가지 옵션과 모든 이메일에 대해 하나 또는 다른 다른 옵션은 예를 들어 이미지를 찍는 얼굴 감지와 같은 것입니다 얼굴이 예 또는 아니오입니다

카메라가 텍스트를 향하게합니다 이미지 위로 얼굴을 가로 지르는 작은 창이 있습니다 머신 러닝에서 가장 일반적인 설정 중 하나 인 방법 찾기 다른 하나는 멀티 클래스입니다 분류 그래서 여기 Curley 당신은 왜 여러 클래스를 가지고 그래서 나는 이것을 K라고 1 2 3 4 5가 될 수있는 다른 클래스들 예를 들어 웹에서 기사를 가져 가면 당신이 아는 스포츠 또는 정치 또는 당신은 알고 있지만 가제트 뭔가 리뷰 또는 그런 것 너무 바빠서 다른 카테고리를 가지고 있고 당신이 그녀를 알고 싶어 Google 뉴스를 샘플링하여 엔터테인먼트에 관심이 있으십니까? 정치에 관심이 있거나 기술 뉴스에 관심이 있습니까? 그들이하는 일은 세상의 신문과 그들은 방금 나온 각 기사를 K 클래스 중 하나입니다 예를 들어 스포츠보기와 K는 정치라는 것을 알고 있습니다 이것에 대해 나와 함께 있으면 손 들어보세요 또 다른 좋은 것은 회귀와 회귀입니다

Y는 실수입니다 이것이 회귀를 수행하는 한 가지 방법이므로 여기서는 구별하지 않습니다 다른 카테고리 오, 예를 들어 특정 숫자를 누르십시오 사람들이 Zillow zero가 실제로 우리가 갈 수있는 웹 페이지라는 것을 모른다면 미국의 어느 곳이든 어느 집이든 클릭하면 알려줍니다 그 집의 가치는 얼마입니까? 당신이 주변을 둘러보고 집의 종류를 확인하십시오

주택 비용은 적당하지만 상대적으로 어려운 작업이므로 수행하려는 작업은 바쁜 당신은 당신이 잘 알고 당신이 집에 화장실이 얼마나 많은 욕실을 알고 정사각형 영상 바로 학교와의 거리는? 학교의 순위 등 모든 종류의 다른 기능을 이것들은 다른 차원의 벡터를 가지고 있고 집이 얼마나 팔렸는지 예측하고 새 집이 팔릴 때마다 그 데이터를 내 데이터에 추가하고 iPod을 제대로 훈련시킵니다 대답은 0과 사이에있을 수 있습니다 이론적으로 몇 백만을 알고 있습니다 추측하고 다른 하나는 예를 들어 사람의 키와 사람의 나이는 괜찮습니다 분류 등을 이용한 이진 회귀 분석 좋아 좋아 그래 안녕 난 더 이상 없어 내가 팔 수 있도록 내가 어떻게 광장에 게시하고 이것에 대해 당신은 할 수 있습니다 당신의 손을 올리지 않은 자신을 인쇄하십시오

가장 오래된 나는 그들이 모두 같은 위치에있는 것을 볼 수 있습니다 누군가가 정말 좋은 경우 그냥 통과하면 다시 전달한 다음 당신의 이웃이지만 그들은 3 분 밖에 안 남았습니다 기본적으로 4 배가 있고 Y가 있다면 Y가 Y입니다 예측을 시도하고 그는 단지 숫자의 집합을 알고 있습니까 -101 또는 0으로 중국 촬영을 고수하십시오 K 번호를 알 수 있습니까? K 멀티 클래스 분류를 알고 있거나 실수 일 수 있습니다

당신이 회귀를하고 싶은지 알고 있다면 X에 대해 X의 예를 들겠습니다 먼저 예를 들어 알고 있습니다 참을성있게 모든 요즘 정말 큰 것은 실제로는 더 이상 내가 생각하지는 않지만 저렴한 의료법의 한 부분을 알고 있습니다 병원에서하지 말아야 할 인센티브가 많다는 것을 알고 계셨을 것입니다 아주 빨리 돌아 오는 환자를 퇴원 시켜서 일반적으로 환자의 이익을 위해 고려되지 않으므로 Baisley 병원에서 퇴원하지만 일주일 후에는 가야합니다 잘 돌아 왔을 것입니다 아마 당신은 병원을 떠나지 말아야했습니다 보통은 보험에 더 많은 원인을 만들어냅니다

환자가 병원으로 돌아 가면 기본적으로 병원에 대한 처벌이있었습니다 6 주 안에 병원에 시간이 너무 많아서 환자가 다음 6시에 다시 올지 예측하는 노력을 기울였습니다 6 주가 될 수있을 정도로 건강한 참여 자신의 외부에 있고 그 이후로 잘 지내 육주 당신은 아마 괜찮아 그래서 당신이 할 수있는 잘 말할 수있다 내 전 나는 기본적으로 사양 사무실 환자입니다 그래서 하나 당신이 고집하고 싶었던 것은 여기 이진 기능입니다 옳고 다른 것을 아는 사람이 차이를 만들 수 있도록 하나는 H 권리이므로 여기 76 세인 사람과 같은 이유를 알 수 있습니다 나이와 년이 맞습니다

그래서 또 다른 방법은 키입니다 물론 183 센티미터의 의미를 모르지만 당신이 6 피트인지, 내가 모르는 손이 몇 개인 지 일부는 센티미터 단위의 키를 알고 있습니다 예, 알고 있습니다 혈압이 있고 심장 박동수 나 다른 것을 알고 있습니다 기본적으로 사람이 예 또는 아니오로 돌아올 것인지 예측하려고 노력하십시오 돌아온 사람들의 과거 데이터를 가져 오지 않았습니다 돌아 오지 않았고 알고리즘을 그렇게 훈련 시켜서 가장 일반적인 것은 텍스트 문서입니다

예를 들어 똑바로 알고있는 벡터처럼 보이지 않습니다 단어의 문자열처럼 숫자와 사람들이하는 것은 단어의 가방 표현에 대한 단어의 가방 그러나 기본적으로 글쎄요, 단어를 제대로 먹었을뿐입니다 당신이 단어를 넣어 순서는 단지 단어 발생을 보자 어떤 단어가 텍스트에 있고 놀랍게 잘 작동한다는 것이 밝혀졌습니다 실제로 다음을 취할 수 있습니다 기본적으로 d 차원 여기서 D는 영어의 단어 수 예를 들어 영어로 된 단어가 몇 개인 지 모르겠습니다 아마 백만 개가 되니까 첫 번째 수학부터 시작해 중요하지 않은 것은 여기에 개미가 있고 여기에는 얼룩말이 있습니다

예를 들어 이메일의 모든 단어에 대해 예를 들어 예를 들어 무스라는 단어에 다섯 번이나 맞을 수도 있습니다 일곱 번 맞아 나는 아무 것도 옳지 않다고 말했고 당신은 BZ가 단지 당신의 단어를 할인 할 수 있도록 등등에 대해 이야기하지 않았습니다 이메일과 그 단어 고양이의 벡터이며 vectorial입니다 귀하의 이메일에서 표현하면 놀랍도록 잘 작동하는 것으로 나타났습니다 일반적으로 알기 쉬운 이메일인지는 스팸인지 아닌지를 식별 할 수 있습니다 스팸 또는 뉴스 나 기사 인 경우 정치 또는 스포츠 이 표현에서 잘 이해 될 수 있습니다 야구 사진이나 그에 대해 이야기한다면 워싱턴 DC에 대해 이야기한다면 아마도 대통령 일 것입니다

정치 왜 우리가 여기에 두지 않습니까 월요일에 다시 see겠습니다

SAS Demo | Deep Learning with Python (DLPy) and SAS Viya for Computer Vision

안녕하세요, 저는 Susan Kahler이고 인공 지능과 기계 학습에 대한 책임이 있습니다 SAS에서

이 비디오에서는 SAS Deep Learning Python API 또는 DLPy에 대해 간략하게 설명합니다 이 시리즈는 DLPy가 지원하는 최신 컴퓨터 비전 모델에 중점을 둘 것입니다 DLPy를 통해 Python에 익숙한 데이터 과학자는 딥 러닝을 활용할 수 있습니다 SAS Viya의 컴퓨터 비전 기능 설명의 링크를 사용하여 주제로 직접 이동하십시오

첫 번째 섹션에서는 DLPy와 함께 Functional API를 활용하여 빌드하는 방법을 살펴 봅니다 ResNet 모델을 포함한 기능 추출을위한 복잡한 모델 다음으로 축구를 추적하기 위해 U-Net 모델을 사용하여 이미지 세분화를 수행하는 방법을 살펴 보겠습니다 선수 그런 다음 DLPY가 VGG16을 백본으로 사용하여 Faster R-CNN을 사용하여 객체 감지를 지원하는 방법을 살펴 보겠습니다 회로망

스위칭 기어, DLPy가 어떻게 MobileNet 및 ShuffleNet을 지원하고 성능을 비교하는지 살펴 보겠습니다 ResNet50 모델이있는 모델 중 하나입니다 마지막으로 훈련과 추론 모두에서 멀티 태스킹 학습이 수행되는 방법을 살펴 보겠습니다 제품 권장 사항에 대해서는 소매 도메인에서 추론을 위해 Python 용 이벤트 스트림 처리 패키지 인 SAS ESPPy를 사용합니다 DLPy에는 Python 3 이상 및 SAS Viya 34가 필요합니다

또한 Analytics 전송을위한 SAS 스크립팅 래퍼 또는 SWAT 패키지가 필요합니다 DLPy는 python-dlpy 디렉토리의 SAS 소프트웨어 용 GitHub에서 사용할 수 있습니다 이 비디오에 실린 Jupyter 노트북도 해당 위치에 있습니다 DLPy의 최신 컴퓨터 비전 기능에 대해 배우고 즐기시기 바랍니다 스스로를 위해

안녕하세요, 저는 SAS의 데이터 과학자 인 Wenyu이며 딥 러닝과 컴퓨터에 중점을 둡니다 비전 API 이 비디오에서는 고급 Python API, Python을 사용한 SAS Deep Learning 또는 (DLPy) 이 비디오의 목적은 SAS에서 기능적 API를 활용하는 방법을 보여주는 것입니다 복잡한 모델을 만들기위한 DLPy 보다 유연한 방법을 제공하기 때문에 Functional API에 중점을두고 있습니다

Keras Functional API와 매우 유사한 복잡한 모델을 구현하십시오 Sequential API는 공유 모델을 만들 수 없다는 점에서 제한적입니다 레이어 또는 여러 입력 또는 출력이 있습니다 입력 및 출력이 여러 개인 모델이 Functional API를 사용하는 좋은 예입니다 간단한 6 단계로 SAS DLPy를 사용하여 모델을 생성 해 봅시다

텐서를 반환하는 Input ()에 의해 두 개의 텐서 (회색조 이미지와 RGB 이미지)를 정의합니다 목적 그런 다음 그레이 스케일 이미지가 두 개의 컨볼 루션 브랜치에 공급됩니다 이 모델에는 또 다른 입력 컬러 이미지가 있습니다 그런 다음 이미지의 특징을 추출하기 위해 컨벌루션 연산이 사용됩니다

세 개의 텐서가 연결되고 OutputLayer_1에서 분류를 계산하는 데 사용됩니다 손실 또한 모델은 OutputLayer_2를 통해 감독됩니다 그런 다음 정의 된 입력 텐서 및 출력 텐서를 Model () 함수에 전달합니다 마지막으로 compile ()을 호출하여 네트워크를 컴파일합니다

여기서는 모델의 요약과 네트워크 그래프를 보여줍니다 레이어 연결 이 다음 모델에서는 ResNet 유사 모델을 작성하는 방법을 고려하십시오 이 작업에서는 돌고래 또는 기린을 포함하는지 여부에 따라 이미지를 분류합니다 먼저 각각의 직후에 배치 정규화를 채택하는 회선 블록을 정의합니다

회선 다음으로, 나머지 블록 내에서 바로 가기 연결을 사용하여 입력 기능을 연결합니다 컨볼 루션의 출력에 4 개의 누적 잔차 블록이 있으며 네트워크는 전체 평균 풀링으로 끝납니다 다음은 순차적으로 누적 된 4 개의 잔차 블록과 전역 평균을 보여주는 모델의 그래프입니다 풀링

모델이 빌드되면 ImageTable API에 의해 데이터가로드되고 모델을 학습 할 수 있습니다 순차적 인 모델처럼 SAS DLPy API를 사용하면 사전 훈련 된 여러 출력 모델을보다 쉽게 ​​정의 할 수 있습니다 기능 추출기로서의 백본 다음 경우에는 가중치와 함께 ResNet18 모델을로드합니다 다음으로로드 된 모델을 기능 모델로 변환하고 원래 작업 계층을 삭제합니다 이를 위해 to_functional_model ()을 사용하고 stop_layers를 지정합니다

그래프 이동을 중지하는 레이어 즉, stop_layers와 stop_layers가 뒤에 오는 모든 레이어가 제거됩니다 기능적 모델 그런 다음 OutputLayer와 Keypoints Layer라는 두 가지 새로운 작업 계층을 추가합니다 그래프 하단에서 새로 추가 된 두 개의 레이어를 볼 수 있습니다

이 비디오에서는 DLPy를 사용하여 여러 입력 및 출력을 가진 모델을 만든 다음 ResNet과 유사한 모델이며 마지막으로 순차 모델을 기능 모델로 변환했습니다 시청 해주셔서 감사합니다 안녕하세요, 저는 Maggie Du이고 SAS의 기계 학습 개발자이며 딥 러닝 및 컴퓨터 비전 API 이 비디오에서는 DLPy라고하는 SAS 고급 딥 러닝 Python API를 사용하여 게임에서 축구 선수를 추적하는 이미지 분할 문제를 해결하는 방법을 보여줍니다 각 플레이어에 대한 통계를 제공합니다

코치에 의한 경기 후 분석과 같은 여러 목적으로 통계를 사용할 수 있습니다 팬들에게 증강 게임 시청 경험을 제공합니다 이미지 분할은 이미지를 의미 적으로 의미있는 부분으로 분할하려고 시도합니다 각 부분을 사전 정의 된 레이블 중 하나로 분류합니다 따라서 픽셀 수준에서 이미지를 이해하는 새로운 방법입니다

예를 들어이 이미지에는 개, 고양이 및 배경의 세 가지 클래스가 있습니다 따라서 우리는 각 픽셀에 어떤 클래스가 속하는지를 나타내는 특정 색상을 부여합니다 전반적으로 각 객체의 정확한 경계를 얻을 수 있습니다 시작하자 필요한 모듈을로드 한 후 데이터 세트를로드하려고합니다

우리는 축구 경기의 이미지를 예로 들어 170 이미지가 포함 된 모두 256 * 256으로 조정되었습니다 다음은 원시 이미지와 해당 주석의 시각화입니다 이미지에는 축구 선수, 축구 공 및 배경의 세 가지 다른 객체가 있습니다 따라서 주석 이미지에는 세 가지 색상이 포함됩니다 그런 다음 데이터 세트를 학습 데이터, 유효성 검사 데이터 및 테스트 데이터로 무작위로 나눕니다

다음으로 SAS DLPy를 사용하여 U-Net 모델을 구축하려고합니다 이 대칭 모델은 인코딩과 디코딩의 두 부분으로 볼 수 있습니다 기능 크기가 가장 작은 레이어 인 병목 현상 레이어로 분할됩니다 인코딩 부분에서 풀링 레이어를 사용하여 다운 샘플링을 수행하여 기능을 추출합니다 디코딩에서 입력 컨볼 루션 레이어를 사용하여 입력 이미지에서 업 샘플링 학습 된 정보를 재구성하는 부분

또한 텐서를 직접 결합하는 4 개의 연결 레이어를 모델에 추가했습니다 두 개의 다른 레이어에서 이전의 특정 정보를 쉽게 상속받을 수 있습니다 층 SAS DLPy는 사전 정의 된 U-Net 모델을로드하는 기능을 제공합니다 인코딩을위한 4 개의 풀링 계층 및 디코딩을위한 4 개의 전치 컨볼 루션 계층

축구 경기 데이터 모델에는 3 천 4 백만 개가 넘는 매개 변수가 포함되어 있습니다 SAS DLPy API를 사용하여 계층별로 고유 한 U-Net 모델을 만들 수도 있습니다 병목 현상 레이어의 크기 및 컨볼 루션 수와 같은 기능을 쉽게 결정할 수 있습니다 두 풀링 레이어 사이에 원하는 레이어 아키텍처가 구축되면 교육 데이터를 사용하여 모델을 교육하고 유효성을 검사 할 수 있습니다 검증 데이터 사용

교육이 완료된 후 테스트 데이터를 사용하여 모델의 성능을 테스트 할 수 있습니다 새로운 이미지를 수행합니다 스코어링 메트릭을 확인하거나 예측을 직접 시각화 할 수 있습니다 이 예에서 잘못된 분류 비율은 056 %로 65,536 픽셀 중 약 360 픽셀 만 잘못 레이블이 지정됩니다 두 번째 방법은 간단합니다

여기에 원시 이미지, 주석 및 예측을 나란히 놓고 모델의 성능을 확인하기 위해 모든 것을 쉽게 비교할 수 있습니다 첫 번째 열에는 원시 이미지가 표시되고 가운데 열에는 실제 이미지가 표시됩니다 세 번째 열의 이미지는 예측에서 얻습니다 마지막 두 열 사이에는 약간의 차이 만 있습니다 이는 U-Net 모델을 의미합니다

이 데이터에 매우 효과적이었습니다 이 비디오에서는 SAS DLPy를 사용하여 이미지 세분화 모델을 신속하게 구축하고 이 모델에 대한 교육 및 스코어링 방법 SAS DLPy에는 훨씬 더 많은 기능이 포함되어 있으므로 향후 사용 사례 시청 해주셔서 감사합니다! 안녕하세요, 제 이름은 Xindian Long이고 컴퓨터 비전을위한 딥 러닝 알고리즘을 개발합니다 YOLO, Faster R-CNN, Mask R-CNN 등 SAS Deep Learning for Python (또는 DLPy)은 고급 Python과 함께 제공됩니다 사용자가 이러한 기능을 사용할 수 있도록하는 API

현재 그림 1과 같이 주로 물체 감지 방법에는 두 가지 유형이 있습니다 첫 번째 방법은 단일 단계 방법입니다 이 유형의 방법에서 경계 상자 지역화 및 객체 분류는 하나에서 수행됩니다 단계 YOLO, SSD와 같은 알고리즘이이 범주에 속합니다

두 번째 방법은 다단계 방법입니다 여기에는 두 가지 단계가 있습니다 첫 번째 단계에서 지역 제안 네트워크는 관심있는 직사각형 지역을 찾는 것입니다 객체를 포함 할 가능성이 높은 (또는 ROI) 두 번째 단계에서는 추가 회귀 및 분류를 수행하여 실제로 해당 지역에 개체가 있으며, 그렇다면 범주와 정확한 위치 그리고 모양입니다 Faster R-CNN, R-FCN과 같은 알고리즘이이 범주에 속합니다

첫 번째 범주의 알고리즘은 일반적으로 두 번째 범주의 알고리즘보다 빠릅니다 예를 들어 실시간 성능이 필요한 응용 프로그램이있는 경우 YOLO는 아마도 좋은 선택 Faster R-CNN과 같은 두 번째 범주의 알고리즘은 일반적으로 더 정확합니다 “Faster R-CNN”이라는 이름이 언급 된 다른 알고리즘보다 더 빠르게 실행되는 것은 아닙니다 이리

R-CNN 및 Fast R-CNN 알고리즘보다 이전 버전보다 훨씬 빠릅니다 그림 2는 앵커 박스의 중요한 개념을 보여줍니다 그들은 객체에 사용됩니다 YOLO와 Faster R-CNN의 탐지 알고리즘 이 개념을 이해하는 것이 매우 중요합니다 앵커 상자는 이미지의 여러 위치에있는 추상 상자이며 일반적으로 그리드 패턴

사전 정의 된 모양으로 사전 설정된 개수의 경계 상자를 예측하는 데 사용됩니다 각 위치에서 앵커 상자는 예측 된 위치의 초기 값으로 사용됩니다 모양에 따라 개체 크기 / 모양에 대한 사전 지식이 포함되어 있습니다 그림 2의 이미지에서이 한 위치에 많은 앵커 박스가 있음을 알 수 있습니다 상자마다 모양이 다른 물체를 감지합니다

예를 들어이 이미지에서 빨간색 앵커 상자는 사람을 감지하는 상자입니다 물론 최종적으로 감지 된 물체 모양은 원래 물체와 약간 다를 수 있습니다 알고리즘이 최적화하기 때문에 앵커 박스의 모양 그림 3은 Faster R-CNN 네트워크 아키텍처를 보여줍니다 DLPy를 사용하면 계층별로 구축 할 필요가 없습니다 알고리즘 이해를 돕기 위해 그것에 대해 이야기하고 있습니다

그것의 첫 번째 부분은 백본 네트워크입니다 백본 네트워크에는 일반적으로 많은 회선 레이어와 풀링 레이어가 포함되어 있습니다 입력 이미지에서 기능 맵을 추출합니다 널리 사용되는 백본 네트워크에는 VGG16, ShuffleNet 또는 ResNet 등이 있습니다 응용 프로그램 및 요구 사항에 따라 선택할 수 있습니다

지역 제안 네트워크는 백본 네트워크를 따릅니다 지역 제안 네트워크는 많은 제안 된 관심 지역을 출력합니다 개체를 포함 할 가능성이 높은 창입니다 지역 제안 네트워크는 지역 이전에 두 개의 특수한 컨볼 루션 레이어로 구성됩니다 제안서 계층

지역 제안서 레이어에 대해 사용자가 지정해야하는 중요한 매개 변수는 앵커 박스는 제안 될 수있는 형태의 범위를 대략 결정합니다 그 후에는 ROI 풀링 레이어입니다 관심 영역을 백본 네트워크 출력 인 페더 맵에 매핑합니다 창 내부의 픽셀 값을 추출하고 다른 크기의 하위 이미지를 형성합니다 ROI 풀링 레이어는 모든 하위 이미지의 크기를 같은 크기로 조정합니다

이것은 기능 맵의 모든 채널에 대해 수행됩니다 따라서 각 ROI마다 3D 데이터 배열을 얻습니다이를 텐서라고합니다 ROI 풀링 레이어의 출력에는 제안 된 각 영역마다 하나씩 많은 텐서가 포함됩니다 관심의

네트워크의 마지막 부분은 각 텐서와 ROI에서 독립적으로 작동하며 하나를 만듭니다 각 ROI에 대한 결정 세트 먼저, 두 개의 완전 연결된 레이어가 있으며 분류간에 공유됩니다 그리고 경계 상자 회귀 그런 다음 분류 헤더와 경계 상자 회귀 헤더가 있으며 각 헤더 앞에 하나의 완전히 연결된 레이어로 각각

우리 시스템에서 분류 헤더와 바운딩 박스 회귀 헤더는 모두 FastRCNN 계층에서 구현됩니다 빠른 R-CNN 네트워크 아키텍처에 대한 간략한 소개와 알고리즘의 방법 공장 이제 노트북을 볼 수 있습니다 먼저 CAS 서버에 연결합니다 조치 세트를로드하십시오

그리고 CAS 라이브러리를 빌드하십시오 그런 다음 DLPy 함수를 호출하여 앞에서 설명한 모델 아키텍처를 빌드해야합니다 Faster_RCNN 그런 다음 데이터 세트를로드하고 훈련 세트와 데이터 세트로 분할합니다 여기서 데이터 셋과 라벨을 그래픽으로 시각화하고 이미지와 경계를 볼 수 있습니다 상자 및 레이블

네트워크 교육을 위해 사전 훈련 된 가중치를로드하고 대상 열을 정의한 다음 가중치를 계속 최적화하려면 fit 함수를 호출하십시오 그런 다음 predict 함수를 호출하여 객체 위치와 범주를 예측할 수 있습니다 마지막으로 탐지 결과를 시각화 할 수 있습니다 이미지에서 감지 된 개체 주위에 상자가 그려져 있음을 알 수 있습니다 객체 카테고리 자신감뿐만 아니라 보여줍니다

이미지에서 감지 된 양을보십시오 이것이 데모의 끝입니다 DLPy와이 예제를 사용해보십시오 시청 해주셔서 감사합니다! 안녕하세요, Guixian Lin입니다 저는 SAS의 컴퓨터 비전 딥 러닝 개발자입니다

여기에 DLPy로 알려진 SAS 고급 딥 러닝 Python API를 사용하여 가벼우면서도 강력한 컨볼 루션 뉴럴 네트워크를 쉽게 구축하고 훈련 할 수 있습니다 이미지 분류 문제에 대한 (또는 CNN) 이 예에서는 의류를 분류합니다 VGG16 및 ResNet50과 같은 인기있는 CNN은 이미지 분류에 널리 사용되었습니다 뛰어난 정확성을위한 작업 그러나 자원이 제한된 모바일 및 에지 장치의 경우 이러한 CNN은 종종 너무 유용하게 큰

얼굴 인식 및 자율 주행 차와 같은 실시간 애플리케이션에는 충분히 빠르지 않습니다 다음으로 세 가지 효율적인 CNN 인 MobilenetV1, ShufflenetV1 및 MobileNetV2를 소개합니다 이 인기 CNN보다 훨씬 작지만 정확도는 비슷합니다 CNN의 핵심 구성 요소는 컨볼 루션 레이어라는 것을 알고 있습니다 효율적인 MobileNet 및 ShuffleNet의 기본 아이디어는 표준 컨볼 루션을 대체하는 것입니다

가벼운 컨볼 루션 그림 21은 표준 컨벌루션과 깊이 분리형의 차이점을 보여줍니다 깊이 컨벌루션과 포인트 컨벌루션으로 구성된 컨벌루션 맨 윗줄에서 각 블록은 컨벌루션 필터를 나타내며 총 c2 필터가 있습니다

각 컨볼 루션 필터는 공간 정보를 필터링하고 채널 정보를 결합합니다 한 번의 단계로 입력 기능 이를 위해서는 각 컨볼 루션 필터의 깊이가 입력 피처의 깊이와 일치해야합니다 여기서 깊이는 c1입니다 레이어가 깊어 질수록 피처 맵의 깊이가 더 커지는 경우가 종종 있습니다

이러한 인기있는 CNN이 매우 큰 이유입니다 두 번째 행은 깊이 컨벌루션이 공간 정보를 채널별로 필터링 함을 보여줍니다 즉, 각 깊이 방향 컨볼 루션의 깊이는 레이어의 깊이에 관계없이 항상 1입니다 입니다 깊이 컨볼 루션은 입력 채널 만 필터링하므로 출력을 결합해야합니다

유용한 기능을 생성하는 기능 이것은 커널과의 표준 컨볼 루션 인 포인트 컨벌루션으로 수행 할 수 있습니다 1 회 1 회 표준 컨벌루션을 깊이 컨벌루션으로 교체 한 다음 점별 컨볼 루션에서 유사한 방식으로 피쳐와 패턴을 추출 할 수 있지만 모델 크기는 극적으로 감소했습니다 그림 22는 그룹 컨볼 루션을 설명합니다

채널을 여러 그룹으로 나누고 각각의 표준 컨볼 루션을 적용합니다 그룹 예를 들어 g 개의 그룹이있는 경우 모델 크기를 1 / g의 차수로 줄일 수 있습니다 그림 23은 MobileNetV1, ResNet50, ShuffleNetV1 및 MobileNetV2의 빌딩 블록을 보여줍니다

MobileNetV1의 경우 아키텍처는 VGG와 유사합니다 VGG의 표준 컨벌루션을 경량 깊이 컨볼 루션으로 대체합니다 포인트 컨벌루션이 뒤 따른다 ResNet은 종종 ResNet 블록으로 인해 VGG보다 성능이 우수하기 때문에 ShuffleNetV1 MobileNetV2는이 아이디어를 빌 렸습니다 둘 다 ResNet 블록의 표준 컨벌루션을 깊이 컨벌루션으로 대체하여 모델 크기

ShuffleNetV1은 포인트 컨벌루션을 그룹 컨볼 루션으로 대체하여 모델 크기 이제 경량 컨볼 루션이 더 작은 모델을 빌드하는 데 유용하다는 것을 이해합니다 및 ShuffleNet 다음으로 의류 소매 제품 데이터에 대한 성능을 보여 드리겠습니다 먼저 데이터 세트를로드하고 일부 이미지를 표시합니다

여기에는 6 개의 수업이 있으며 약 2,100 개의 이미지가 있습니다 다음으로, 우리는 훈련과 평가를 위해 무작위로 데이터를 훈련과 테스트로 나누었습니다 다른 CNN SAS DLPy는 다양한 사전 구축 네트워크 아키텍처를 제공합니다 매우 효과적입니다

여기서는 CNN을 구축하는 데 사용할 것입니다 MobileNetV1 아키텍처의 경우 다음과 같은 기본 매개 변수를 지정합니다 클래스 수 입력 이미지를 정규화하기위한 오프셋 및 스케일로 분류 될 수있다 또한 임의 뒤집기와 자르기를 사용하여 입력 이미지를 보강합니다 MobileNetV1 모델에는 축소 매개 변수 인 alpha가있어 출력 채널 수 옵티 마이저를 설정 한 후 모델을 학습 할 준비가되었습니다

훈련 로그는 많은 유용한 정보를 알려줍니다 여기에서 모델 매개 변수의 수가 8 백만임을 알 수 있습니다 대상에는 6 개의 클래스가 있습니다 훈련 손실과 오류로 반복 기록을 그릴 수 있습니다

16 오류 후 훈련 오류가 감소하고 수렴 함을 보여줍니다 최종 교육 오류는 약 54 %입니다 다음으로 테스트 데이터에서 모델 성능을 평가합니다 MobileNetV1 모델의 오류율은 5

3 %입니다 그거 좋네! 올바른 예측과 잘못된 예측을 통해 모델을 확인함으로써, 모델이 패턴을 배우고 합리적인 예측을한다는 것을 알 수 있습니다 다음으로 비슷한 단계를 따라 다른 CNN (ShuffleNetV1, MobileNetV2, 및 ResNet50 자세한 내용은 노트북을 참조하십시오 이 모델의 테스트 오류는 다음과 같이 요약됩니다

탁자 이 3 가지 경량 모델은 일반 모델보다 매개 변수가 훨씬 적습니다 ResNet50은이 소매 데이터의 정확성을 향상시킵니다 이 비디오에서 SAS DLPy를 사용하면 이러한 작은 크기를 빠르게 구축하고 훈련 할 수 있습니다 그러나 효율적인 CNN

앞으로의 작업에 이러한 모델을 적용 해 볼 수 있기를 바랍니다 시청 해주셔서 감사합니다! 안녕하세요 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 딥 러닝과 함께 일할 수있는 특권이 있습니다 R & D 팀 컴퓨터 용 Python 및 DLPy 및 SAS Viya를 사용한 딥 러닝을위한 비디오 시리즈입니다

전망 이 특정 비디오에서는 패션에 태그를 지정하기 위해 멀티 태스킹 딥 러닝 모델을 훈련하고 싶습니다 품목 이제 기계 학습에서 종종 이미지를 가져 와서 레이블을 지정하고 단일 이미지를 만듭니다 옷의 종류를 분류하는 것과 같이지도 학습을 통해 하나의 작업을 분류합니다 드레스인가요? 티셔츠인가요? 벨트인가요? 그리고 색상과 같은 다른 의미 속성이 있고 입력 데이터에 레이블을 지정하면 색상을 분류하기 위해 회선 신경망과 같은 다른 것을 훈련하십시오

종종 고려해야 할 장점과 장점 중 하나는 단일 모델을 훈련시키는 것입니다 이 두 가지 과제를 동시에 동시에 배우는 것입니다 이를 유용한 정보를 활용하는 패러다임 인 멀티 태스킹 학습이라고합니다 전체적인 일반화를 향상시키기 위해 여러 관련 작업에서 즉, 모델이 더 잘 맞는 경향이 있습니다 한 작업에 대한 정보가 다른 작업을 예측하는 데 신뢰성을 부여 할 수 있기 때문에 좋습니다

단일 모델이 있으므로 두 모델을 사용하는 것보다 배포가 훨씬 쉽습니다 또는 더 많은 모델 따라서보다 쉽게 ​​관리하고 생산할 수 있습니다 시작하기 전에 멀티 태스킹 학습은 매우 강력합니다 자율 주행 차와 같은 많은 응용 분야에 사용됩니다

영어로 된 문서 모음이 있다고 가정 해 봅시다 프랑스어, 독일어 및 이탈리아어로 번역하고 싶습니다 거기에는 동시에 훈련하는 세 가지 작업이 있습니다 이제이 예에서는 이미 CAS 세션을 시작했습니다 DLPy를로드했으며 CAS 서버에 연결했습니다

가장 먼저 보여 드리고 싶은 것은 디스크에서 이미지를로드하고로드하는 방법입니다 이 예제에서는 하위 디렉토리에서 읽은 후 레이블을 재귀 적으로 가져옵니다 따라서 실제로 디스크에서 데이터를로드하여 메모리로 읽어들입니다 서브 디렉토리에서 레이블을 당기십시오 다음으로하는 일은 간단한 빈도 수이며 데이터가 상당히 균형을 이루고 있음을 알 수 있습니다 모든 작업에서 332 개에서 386 개의 관측치가 있습니다

이런 종류의 균형을 가질 필요는 없으며 분명히 콜스 나 메이 시즈, 우리는 더 많은 관측을 할 것이지만 이것은 간단한 데모입니다 이제 멀티 태스킹 딥 러닝을 수행하는 데있어 가장 까다로운 부분 중 하나는 작업 레이블 자체 이제 내가하고있는 첫 번째 일은 Pandas 데이터 프레임을 사용하고 getDummies를 단순히 이진 지표를 만듭니다 딥 러닝 패키지에는 정말 강력한 것이 있습니다 SAS 함수 컴파일러입니다

이를 사용하여 자신의 손실 함수를 찾을 수 있습니다 여기에서는 계산 된 vars를 사용하여 조건부로 추가 작업을 조건부로 정의하고 있습니다 여성, 의복의 조화는 무엇이며, 나는 그것을 다른 사람들과 다시 합류합니다 데이터 여기 간단한 머리를보고 몇 가지 관찰 만 살펴보면 이제 9 개의 총 작업이 동시에 진행되고 있음을 알 수 있습니다

여자를위한 것이 든 아니든 자, 여기에 이미지를 보여 드리는 예가 있습니다 그들이 어떻게 생겼는지 딥 러닝의 많은 머신 러닝 문제와 마찬가지로 데이터 크기도 조정합니다 200×200으로 설정하고 CAS 서버의 모든 작업자 노드에서 데이터를 섞습니다 여기서 20 %의 샘플을 작성하고 있음을 명심하십시오 이것은 홀드 아웃 데이터 세트 테스트이며, 나머지 80 %의 데이터를 사용하여 학습합니다

에 모델 이제이 시점에서 직접 비순환 그래픽 인 기본 아키텍처를 정의하겠습니다 네트워크를 위해 그리고 DL Plot을 사용하여이를 수행하고 있습니다 입력 레이어, 컨볼 루션 레이어, 배치 규범 풀링 및 밀집 레이어가 있습니다

그러나이 네트워크 플롯을 보면 기본적으로 하나의 아키텍처가 있음을 알 수 있습니다 그리고 그 아키텍처는 우리가 시도하는 모든 결과 작업과 공유됩니다 예측하십시오 모든 작업에 대해 동일한 네트워크를 가질 필요는 없습니다 이것은 기본 예이며 여기에서 실제로 잘 작동합니다 예측하려는 각 작업에 대해 서로 다른 네트워크 아키텍처를 가질 수 있습니다

아키텍처를 정의한 후 모델을 학습하려고합니다 이 예에서는 운동량과 같은 매우 기본적인 최적화 방법을 사용하고 있습니다 60 개의 EPICS를하고 있는데 훈련 옵션을 정의하고 싶습니다 이제 partition이 0 인 곳을 사용하고 있습니다 그것은 훈련 데이터의 80 % 만 가져올 것입니다

모델 무게 등 나중에 득점을 할 수 있습니다 GPU에서도 이것을 훈련하고 있습니다 딥 러닝의 곱셈 특성으로 인해 네트워크를 더 빨리 훈련시킬 수 있습니다 모델과 더 빠른 실험

다양한 최적화 방법을 시도해보고 궁극적으로 최상의 모델을 얻을 수 있습니다 더 빨리 여기에 약간의 출력이 있지만, 내가 시도한 것은 이것을 이것에 요약합니다 반복 플롯 우리가 60 번의 EPICS를했다는 것을 기억하십시오 약 13 ~ 14 개의 EPICS 어딘가에서 쇠퇴와 상실과 시대를보고 있습니다

모델이 실제로 안정화 된 것 같습니다 나는 실제로 그것을 자랑스럽게 생각합니다 좋아 보인다 테스트 데이터와 비교하여 먼저 확인하겠습니다 이 모델은 훈련을 위해 개발되었습니다 이제 데이터의 20 %를 부분 집합 화하겠습니다

훈련에서 절약 한 모델 가중치를 사용하여 해당 데이터의 점수를 매길 것입니다 그리고 여기서 볼 수 있듯이 모든 작업에 대해 평균 제곱 오차가 매우 낮습니다 좀 더 세분화되고 실제로 혼동 행렬과 같은 것을보고 모델이 테스트 데이터에 얼마나 잘 맞는지 그런데이 예측값 p_는 테스트 데이터에 대한 예측값을 나타냅니다 내가 훈련 한 모델에 나는 판다에서 약간의 일을한다 파이썬을 DLPy와 똑바로 혼합하는 것이 좋습니다

그리고 9 가지 작업 각각에 대한 분류 행렬 인 혼동 행렬을 얻습니다 행은 실제 값을 나타내고 열은 예상 값을 나타냅니다 벗어난 대각선에서, 우리가 잘못한 곳입니다 여기에 검은 색은 4 개, 파란색은 4 개, 빨간색은 1 개, 우리는 다른 수업을 살펴보고 정말 잘하고 있습니다 마지막으로, SAS에서 딥 러닝의 비밀 소스 조각 중 하나는 ASTORE

여기에서 실제로 모델을 이진 파일에 저장하여 배치 스코어링을 수행 할 수 있습니다 스트리밍 분석을 사용하여 점수를 매기거나 다른 모델과의 작업을 위해 모델을 ONNX로 가져 오기 PyTorch 및 TensorFlow와 같은 패키지 여기에이 작업을 완료하고 모델을 저장했으며 다음 비디오에서는 실제로 스트리밍 분석을 사용하여이 모델의 점수를 매기는 방법을 살펴 보겠습니다 결론적으로, 멀티 태스킹 딥 러닝은 실제로 여러 개를보고 예측할 수있게합니다 동시에 작업

DLPy를 사용하면 간단합니다 다음 비디오에서 to기를 기대합니다 Python 및 SAS Viya Computer Vision Series를 사용한 딥 러닝에 오신 것을 환영합니다 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 SAS Deep과 함께 일합니다

학습 R & D 팀 이 비디오에서는 DLPy의 자매 인 ESPPy를 사용하여 멀티 태스킹을하고 싶습니다 딥 러닝 모델 이제 이미 멀티 태스킹 딥 러닝 모델을 훈련했습니다 이미지를 모아서 9 가지 작업을 예측하고 동시에 수행 할 수있는 모델을 개발했습니다

이 예제에서하고 싶은 것은 ESPPy를 사용하는 것입니다 또한 SAS 이벤트 스트림 처리 창에 연결할 수 있습니다 프로젝트를 구축하고 창과 상호 작용하며 모델을 배포합니다 SAS Event Stream Processing은 정말 멋집니다 여기에는 클러스터링에서 시계열 분석에 이르는 여러 스트리밍 작업이 포함됩니다

감정 분석 또는 공동 필터링과 같은 작업도 수행 할 수 있습니다 하지만이 데모에서는 이미지 처리 창과 온라인 창을 사용하겠습니다 딥 러닝 멀티 태스킹 모델을 배포 할 수 있습니다 이제 가장 먼저해야 할 일은 실제로 프로젝트를 만드는 것입니다 이 멀티 태스크를 호출하고 실제로이 셀을 실행하겠습니다

그리고 다음으로하고 싶은 것은 프로세스 흐름이나 관로 실제로 이미지를 읽으려면 소스 창이 필요합니다 우리가 일부 교육에서했던 것처럼 모델을 훈련 할 때마다 일반적으로 이미지 따라서 점수를 매길 때 20에서 20으로 크기를 조정하고 이미지 처리를 사용하겠습니다 그렇게하는 창

다음은 모델을 가져와야한다는 것입니다 모델을 학습하고 ASTORE로 저장 했으므로 모델 리더가 있습니다 그것을 읽을 수있는 창 그리고 실시간으로 점수를 생성하는 득점 창이 있습니다 그리고 보면, 프로젝트는 다음과 같습니다

나는 데이터를 읽고 이미지를 표준화하고 점수를 생성합니다 그런 다음 실제로 프로젝트를로드하고 몇 개의 출력 테이블을 설정하겠습니다 여기에 쓸 것입니다 이제 첫 번째 노트북을 사용하여 실제로 노트북을 정의하기 때문에 별도의 노트북이 있습니다 ESP 프로젝트

이 책에서는 간단히 게시하고 점수 매기기 프로세스를 시작하겠습니다 그래서 저는 팔고이 모든 것을 실행합니다 실제로 모델의 점수를 매 깁니다 다시 여기로 돌아가서 이제 이벤트 스트림 처리 엔진을 사용하겠습니다 득점

실제로 예측 확률과 함께 태그가 지정되고 라벨이 지정된 이미지가 표시되는 것을 볼 수 있습니다 작동하는 예제를 제공하는 작은 세트입니다 수면 시간은 03입니다 이벤트 스트림 처리 엔진은 실제로 초당 최대 50 프레임을 수행 할 수 있습니다

시원한 이 데모에서는 이미 멀티 태스킹 학습을 위해 개발 된 모델을 검색을 용이하게하기 위해 스트리밍 분석을 사용하여 배포 할 수있었습니다 콜이나 메이시 같은 사람 교육용 DLPy와 함께 ESPPy를 사용하면 실제로 쉽게 수행 할 수 있습니다

SAS Demo | Deep Learning with Python (DLPy) and SAS Viya for Computer Vision

안녕하세요, 저는 Susan Kahler이고 인공 지능과 기계 학습에 대한 책임이 있습니다 SAS에서

이 비디오에서는 SAS Deep Learning Python API 또는 DLPy에 대해 간략하게 설명합니다 이 시리즈는 DLPy가 지원하는 최신 컴퓨터 비전 모델에 중점을 둘 것입니다 DLPy를 통해 Python에 익숙한 데이터 과학자는 딥 러닝을 활용할 수 있습니다 SAS Viya의 컴퓨터 비전 기능 설명의 링크를 사용하여 주제로 직접 이동하십시오

첫 번째 섹션에서는 DLPy와 함께 Functional API를 활용하여 빌드하는 방법을 살펴 봅니다 ResNet 모델을 포함한 기능 추출을위한 복잡한 모델 다음으로 축구를 추적하기 위해 U-Net 모델을 사용하여 이미지 세분화를 수행하는 방법을 볼 수 있습니다 선수 그런 다음 DLPY가 VGG16을 백본으로 사용하여 Faster R-CNN을 사용하여 객체 감지를 지원하는 방법을 살펴 보겠습니다 회로망

스위칭 기어, DLPy가 어떻게 MobileNet 및 ShuffleNet을 지원하고 성능을 비교하는지 살펴 보겠습니다 ResNet50 모델이있는 모델 중 하나입니다 마지막으로 훈련과 추론 모두에서 멀티 태스킹 학습이 수행되는 방법을 살펴 보겠습니다 제품 권장 사항에 대해서는 소매 도메인에서 추론을 위해 Python 용 이벤트 스트림 처리 패키지 인 SAS ESPPy를 사용합니다 DLPy에는 Python 3 이상 및 SAS Viya 34가 필요합니다

또한 Analytics 전송을위한 SAS 스크립팅 래퍼 또는 SWAT 패키지가 필요합니다 DLPy는 python-dlpy 디렉토리의 SAS 소프트웨어 용 GitHub에서 사용할 수 있습니다 이 비디오에 실린 Jupyter 노트북도 해당 위치에 있습니다 DLPy의 최신 컴퓨터 비전 기능에 대해 배우고 즐기시기 바랍니다 스스로를 위해

안녕하세요, 저는 SAS의 데이터 과학자 인 Wenyu이며 딥 러닝과 컴퓨터에 중점을 둡니다 비전 API 이 비디오에서는 고급 Python API, Python을 사용한 SAS Deep Learning 또는 (DLPy) 이 비디오의 목적은 SAS에서 기능적 API를 활용하는 방법을 보여주는 것입니다 복잡한 모델을 만들기위한 DLPy 보다 유연한 방법을 제공하기 때문에 Functional API에 중점을두고 있습니다

Keras Functional API와 매우 유사한 복잡한 모델을 구현하십시오 Sequential API는 공유 모델을 만들 수 없다는 점에서 제한적입니다 레이어 또는 여러 입력 또는 출력이 있습니다 입력 및 출력이 여러 개인 모델이 Functional API를 사용하는 좋은 예입니다 간단한 6 단계로 SAS DLPy를 사용하여 모델을 생성 해 봅시다

텐서를 반환하는 Input ()에 의해 두 개의 텐서 (회색조 이미지와 RGB 이미지)를 정의합니다 목적 그런 다음 그레이 스케일 이미지가 두 개의 컨볼 루션 브랜치에 공급됩니다 이 모델에는 또 다른 입력 컬러 이미지가 있습니다 그런 다음 이미지의 특징을 추출하기 위해 컨벌루션 연산이 사용됩니다

세 개의 텐서가 연결되고 OutputLayer_1에서 분류를 계산하는 데 사용됩니다 손실 또한 모델은 OutputLayer_2를 통해 감독됩니다 그런 다음 정의 된 입력 텐서 및 출력 텐서를 Model () 함수에 전달합니다 마지막으로 compile ()을 호출하여 네트워크를 컴파일합니다

여기서는 모델의 요약과 네트워크 그래프를 보여줍니다 레이어 연결 이 다음 모델에서는 ResNet 유사 모델을 작성하는 방법을 고려하십시오 이 작업에서는 돌고래 또는 기린을 포함하는지 여부에 따라 이미지를 분류합니다 먼저 각각의 직후에 배치 정규화를 채택하는 회선 블록을 정의합니다

회선 다음으로, 나머지 블록 내에서 바로 가기 연결을 사용하여 입력 기능을 연결합니다 컨볼 루션의 출력에 4 개의 누적 잔차 블록이 있으며 네트워크는 전체 평균 풀링으로 끝납니다 다음은 4 개의 잔차 블록이 순차적으로 누적되고 전체 평균이 표시되는 모델의 그래프입니다 풀링

모델이 빌드되면 ImageTable API에 의해 데이터가로드되고 모델을 학습 할 수 있습니다 순차적 인 모델처럼 SAS DLPy API를 사용하면 사전 훈련 된 여러 출력 모델을보다 쉽게 ​​정의 할 수 있습니다 기능 추출기로서의 백본 다음 경우에는 가중치와 함께 ResNet18 모델을로드합니다 다음으로로드 된 모델을 기능 모델로 변환하고 원래 작업 계층을 삭제합니다 이를 위해 to_functional_model ()을 사용하고 stop_layers를 지정합니다

그래프 이동을 중지하는 레이어 즉, stop_layers와 stop_layers가 뒤에 오는 모든 레이어가 제거됩니다 기능적 모델 그런 다음 OutputLayer와 Keypoints Layer라는 두 가지 새로운 작업 계층을 추가합니다 그래프 하단에서 새로 추가 된 두 개의 레이어를 볼 수 있습니다

이 비디오에서는 DLPy를 사용하여 여러 입력 및 출력을 가진 모델을 만든 다음 ResNet과 유사한 모델이며 마지막으로 순차 모델을 기능 모델로 변환했습니다 시청 해 주셔서 감사합니다 안녕하세요, 저는 Maggie Du이고 SAS의 기계 학습 개발자이며 딥 러닝 및 컴퓨터 비전 API 이 비디오에서는 DLPy라고하는 SAS 고급 딥 러닝 Python API를 사용하여 게임에서 축구 선수를 추적하는 이미지 분할 문제를 해결하는 방법을 보여줍니다 각 플레이어에 대한 통계를 제공합니다

코치에 의한 경기 후 분석과 같은 여러 목적으로 통계를 사용할 수 있습니다 팬들에게 증강 게임 시청 경험을 제공합니다 이미지 분할은 이미지를 의미 적으로 의미있는 부분으로 분할하려고 시도합니다 각 부분을 사전 정의 된 레이블 중 하나로 분류합니다 따라서 픽셀 수준에서 이미지를 이해하는 새로운 방법입니다

예를 들어이 이미지에는 개, 고양이 및 배경의 세 가지 클래스가 있습니다 따라서 우리는 각 픽셀에 어떤 클래스가 속하는지를 나타내는 특정 색상을 부여합니다 전반적으로 각 객체의 정확한 경계를 얻을 수 있습니다 시작하자 필요한 모듈을로드 한 후 데이터 세트를로드하려고합니다

우리는 축구 경기의 이미지를 예로 들어 170 이미지가 포함 된 모두 256 * 256으로 조정되었습니다 다음은 원시 이미지와 해당 주석의 시각화입니다 이미지에는 축구 선수, 축구 공 및 배경의 세 가지 다른 객체가 있습니다 따라서 주석 이미지에는 세 가지 색상이 포함됩니다 그런 다음 데이터 세트를 학습 데이터, 유효성 검사 데이터 및 테스트 데이터로 무작위로 나눕니다

다음으로 SAS DLPy를 사용하여 U-Net 모델을 구축하려고합니다 이 대칭 모델은 인코딩과 디코딩의 두 부분으로 볼 수 있습니다 기능 크기가 가장 작은 레이어 인 병목 현상 레이어로 분할됩니다 인코딩 부분에서 풀링 레이어를 사용하여 다운 샘플링을 수행하여 기능을 추출합니다 디코딩에서 입력 컨볼 루션 레이어를 사용하여 입력 이미지에서 업 샘플링 학습 된 정보를 재구성하는 부분

또한 텐서를 직접 결합하는 4 개의 연결 레이어를 모델에 추가했습니다 두 개의 다른 레이어에서 이전의 특정 정보를 쉽게 상속받을 수 있습니다 층 SAS DLPy는 사전 정의 된 U-Net 모델을로드하는 기능을 제공합니다 인코딩을위한 4 개의 풀링 계층 및 디코딩을위한 4 개의 전치 컨볼 루션 계층

축구 경기 데이터 모델에는 3 천 4 백만 개가 넘는 매개 변수가 포함되어 있습니다 SAS DLPy API를 사용하여 계층별로 고유 한 U-Net 모델을 만들 수도 있습니다 병목 현상 레이어의 크기 및 컨볼 루션 수와 같은 기능을 쉽게 결정할 수 있습니다 두 풀링 레이어 사이에 원하는 레이어 아키텍처가 구축되면 교육 데이터를 사용하여 모델을 교육하고 유효성을 검사 할 수 있습니다 검증 데이터 사용

교육이 완료된 후 테스트 데이터를 사용하여 모델의 성능을 테스트 할 수 있습니다 새로운 이미지를 수행합니다 스코어링 메트릭을 확인하거나 예측을 직접 시각화 할 수 있습니다 이 예에서 잘못된 분류 비율은 056 %로 65,536 픽셀 중 약 360 픽셀 만 잘못 레이블이 지정됩니다 두 번째 방법은 간단합니다

여기에 원시 이미지, 주석 및 예측을 나란히 놓고 모델의 성능을 확인하기 위해 모든 것을 쉽게 비교할 수 있습니다 첫 번째 열에는 원시 이미지가 표시되고 가운데 열에는 실제 이미지가 표시됩니다 세 번째 열의 이미지는 예측에서 얻습니다 마지막 두 열 사이에는 약간의 차이 만 있습니다 이는 U-Net 모델을 의미합니다

이 데이터에 매우 효과적이었습니다 이 비디오에서는 SAS DLPy를 사용하여 이미지 세분화 모델을 신속하게 구축하고 이 모델에 대한 교육 및 스코어링 방법 SAS DLPy에는 훨씬 더 많은 기능이 포함되어 있으므로 향후 사용 사례 시청 해 주셔서 감사합니다! 안녕하세요, 제 이름은 Xindian Long이고 컴퓨터 비전을위한 딥 러닝 알고리즘을 개발합니다 YOLO, Faster R-CNN, Mask R-CNN 등 SAS Deep Learning for Python (또는 DLPy)은 고급 Python과 함께 제공됩니다 사용자가 이러한 기능을 사용할 수 있도록하는 API

현재 그림 1과 같이 주로 물체 감지 방법에는 두 가지 유형이 있습니다 첫 번째 방법은 단일 단계 방법입니다 이 유형의 방법에서 경계 상자 지역화 및 객체 분류는 하나에서 수행됩니다 단계 YOLO, SSD와 같은 알고리즘이이 범주에 속합니다

두 번째 방법은 다단계 방법입니다 여기에는 두 가지 단계가 있습니다 첫 번째 단계에서 지역 제안 네트워크는 관심있는 직사각형 지역을 찾는 것입니다 객체를 포함 할 가능성이 높은 (또는 ROI) 두 번째 단계에서는 추가 회귀 및 분류를 수행하여 실제로 해당 지역에 개체가 있으며, 그렇다면 범주와 정확한 위치 그리고 모양입니다 Faster R-CNN, R-FCN과 같은 알고리즘이이 범주에 속합니다

첫 번째 범주의 알고리즘은 일반적으로 두 번째 범주의 알고리즘보다 빠릅니다 예를 들어 실시간 성능이 필요한 응용 프로그램이있는 경우 YOLO는 아마도 좋은 선택 Faster R-CNN과 같은 두 번째 범주의 알고리즘은 일반적으로 더 정확합니다 “Faster R-CNN”이라는 이름이 언급 된 다른 알고리즘보다 더 빠르게 실행되는 것은 아닙니다 이리

R-CNN 및 Fast R-CNN 알고리즘보다 이전 버전보다 훨씬 빠릅니다 그림 2는 앵커 박스의 중요한 개념을 보여줍니다 그들은 객체에 사용됩니다 YOLO와 Faster R-CNN의 탐지 알고리즘 이 개념을 이해하는 것이 매우 중요합니다 앵커 상자는 이미지의 여러 위치에있는 추상 상자이며 일반적으로 그리드 패턴

사전 정의 된 모양으로 사전 설정된 개수의 경계 상자를 예측하는 데 사용됩니다 각 위치에서 앵커 상자는 예측 된 위치의 초기 값으로 사용됩니다 모양에 따라 개체 크기 / 모양에 대한 사전 지식이 포함되어 있습니다 그림 2의 이미지에서이 한 위치에 많은 앵커 박스가 있음을 알 수 있습니다 상자마다 모양이 다른 물체를 감지합니다

예를 들어이 이미지에서 빨간색 앵커 상자는 사람을 감지하는 상자입니다 물론 최종적으로 감지 된 물체 모양은 원래 물체와 약간 다를 수 있습니다 알고리즘이 최적화하기 때문에 앵커 박스의 모양 그림 3은 Faster R-CNN 네트워크 아키텍처를 보여줍니다 DLPy를 사용하면 계층별로 구축 할 필요가 없습니다 알고리즘 이해를 돕기 위해 그것에 대해 이야기하고 있습니다

그것의 첫 번째 부분은 백본 네트워크입니다 백본 네트워크에는 일반적으로 많은 회선 레이어와 풀링 레이어가 포함되어 있습니다 입력 이미지에서 기능 맵을 추출합니다 널리 사용되는 백본 네트워크에는 VGG16, ShuffleNet 또는 ResNet 등이 있습니다 응용 프로그램 및 요구 사항에 따라 선택할 수 있습니다

지역 제안 네트워크는 백본 네트워크를 따릅니다 지역 제안 네트워크는 많은 제안 된 관심 지역을 출력합니다 개체를 포함 할 가능성이 높은 창입니다 지역 제안 네트워크는 지역 이전에 두 개의 특수한 컨볼 루션 레이어로 구성됩니다 제안서 계층

지역 제안서 레이어에 대해 사용자가 지정해야하는 중요한 매개 변수는 앵커 박스는 제안 될 수있는 형태의 범위를 대략 결정합니다 그 후에는 ROI 풀링 레이어입니다 관심 영역을 백본 네트워크 출력 인 페더 맵에 매핑합니다 창 내부의 픽셀 값을 추출하고 다른 크기의 하위 이미지를 형성합니다 ROI 풀링 레이어는 모든 하위 이미지의 크기를 같은 크기로 조정합니다

이것은 기능 맵의 모든 채널에 대해 수행됩니다 따라서 각 ROI마다 3D 데이터 배열을 얻습니다이를 텐서라고합니다 ROI 풀링 레이어의 출력에는 제안 된 각 영역마다 하나씩 많은 텐서가 포함됩니다 관심의

네트워크의 마지막 부분은 각 텐서와 ROI에서 독립적으로 작동하며 하나를 만듭니다 각 ROI에 대한 결정 세트 먼저, 두 개의 완전 연결된 레이어가 있으며 분류간에 공유됩니다 그리고 경계 상자 회귀 그런 다음 분류 헤더와 경계 상자 회귀 헤더가 있으며 각 헤더 앞에 하나의 완전히 연결된 레이어로 각각

우리 시스템에서 분류 헤더와 바운딩 박스 회귀 헤더는 모두 FastRCNN 계층에서 구현됩니다 빠른 R-CNN 네트워크 아키텍처에 대한 간략한 소개와 알고리즘의 방법 공장 이제 노트북을 볼 수 있습니다 먼저 CAS 서버에 연결합니다 조치 세트를로드하십시오

그리고 CAS 라이브러리를 빌드하십시오 그런 다음 DLPy 함수를 호출하여 앞에서 설명한 모델 아키텍처를 빌드해야합니다 Faster_RCNN 그런 다음 데이터 세트를로드하고 훈련 세트와 데이터 세트로 분할합니다 여기서 데이터 셋과 라벨을 그래픽으로 시각화하고 이미지와 경계를 볼 수 있습니다 상자 및 레이블

네트워크 교육을 위해 사전 훈련 된 가중치를로드하고 대상 열을 정의한 다음 가중치를 계속 최적화하려면 fit 함수를 호출하십시오 그런 다음 predict 함수를 호출하여 객체 위치와 범주를 예측할 수 있습니다 마지막으로 탐지 결과를 시각화 할 수 있습니다 이미지에서 감지 된 개체 주위에 상자가 그려져 있음을 알 수 있습니다 객체 카테고리 자신감뿐만 아니라 보여줍니다

이미지에서 감지 된 양을보십시오 이것이 데모의 끝입니다 DLPy와이 예제를 사용해보십시오 시청 해 주셔서 감사합니다! 안녕하세요, Guixian Lin입니다 저는 SAS의 컴퓨터 비전 딥 러닝 개발자입니다

여기에 DLPy로 알려진 SAS 고급 딥 러닝 Python API를 사용하여 가벼우면서도 강력한 컨볼 루션 뉴럴 네트워크를 쉽게 구축하고 훈련 할 수 있습니다 이미지 분류 문제에 대한 (또는 CNN) 이 예에서는 의류를 분류합니다 VGG16 및 ResNet50과 같은 인기있는 CNN은 이미지 분류에 널리 사용되었습니다 뛰어난 정확성을위한 작업 그러나 자원이 제한된 모바일 및 에지 장치의 경우 이러한 CNN은 종종 너무 유용하게 큰

얼굴 인식 및 자율 주행 차와 같은 실시간 애플리케이션에는 충분히 빠르지 않습니다 다음으로 세 가지 효율적인 CNN 인 MobilenetV1, ShufflenetV1 및 MobileNetV2를 소개합니다 이 인기 CNN보다 훨씬 작지만 정확도는 비슷합니다 CNN의 핵심 구성 요소는 컨볼 루션 레이어라는 것을 알고 있습니다 효율적인 MobileNet 및 ShuffleNet의 기본 아이디어는 표준 컨볼 루션을 대체하는 것입니다

가벼운 컨볼 루션 그림 21은 표준 컨벌루션과 깊이 분리형의 차이점을 보여줍니다 깊이 컨벌루션과 포인트 컨벌루션으로 구성된 컨벌루션 맨 윗줄에서 각 블록은 컨벌루션 필터를 나타내며 총 c2 필터가 있습니다

각 컨볼 루션 필터는 공간 정보를 필터링하고 채널 정보를 결합합니다 한 번의 단계로 입력 기능 이를 위해서는 각 컨볼 루션 필터의 깊이가 입력 피처의 깊이와 일치해야합니다 여기서 깊이는 c1입니다 레이어가 깊어 질수록 피쳐 맵의 깊이가 더 커지는 경우가 종종 있습니다

이러한 인기있는 CNN이 매우 큰 이유입니다 두 번째 행은 깊이 컨벌루션이 공간 정보를 채널별로 필터링 함을 보여줍니다 즉, 각 깊이 방향 컨볼 루션의 깊이는 레이어의 깊이에 관계없이 항상 1입니다 입니다 깊이 컨볼 루션은 입력 채널 만 필터링하므로 출력을 결합해야합니다

유용한 기능을 생성하는 기능 이것은 커널과의 표준 컨볼 루션 인 포인트 컨벌루션으로 수행 할 수 있습니다 1 회 1 회 표준 컨벌루션을 깊이 컨벌루션으로 교체 한 다음 점별 컨볼 루션에서 유사한 방식으로 피쳐와 패턴을 추출 할 수 있지만 모델 크기는 극적으로 감소했습니다 그림 22는 그룹 컨볼 루션을 설명합니다

채널을 여러 그룹으로 나누고 각각의 표준 컨볼 루션을 적용합니다 그룹 예를 들어 g 개의 그룹이있는 경우 모델 크기를 1 / g의 차수로 줄일 수 있습니다 그림 23은 MobileNetV1, ResNet50, ShuffleNetV1 및 MobileNetV2의 빌딩 블록을 보여줍니다

MobileNetV1의 경우 아키텍처는 VGG와 유사합니다 VGG의 표준 컨벌루션을 경량 깊이 컨볼 루션으로 대체합니다 포인트 컨벌루션이 뒤 따른다 ResNet은 종종 ResNet 블록으로 인해 VGG보다 성능이 우수하기 때문에 ShuffleNetV1 MobileNetV2는이 아이디어를 빌 렸습니다 둘 다 ResNet 블록의 표준 컨벌루션을 깊이 컨벌루션으로 대체하여 모델 크기

ShuffleNetV1은 포인트 컨벌루션을 그룹 컨볼 루션으로 대체하여 모델 크기 이제 경량 컨볼 루션이 더 작은 모델을 빌드하는 데 유용하다는 것을 이해합니다 및 ShuffleNet 다음으로 의류 소매 제품 데이터에 대한 성능을 보여 드리겠습니다 먼저 데이터 세트를로드하고 일부 이미지를 표시합니다

여기에는 6 개의 수업이 있으며 약 2,100 개의 이미지가 있습니다 다음으로, 우리는 훈련과 평가를 위해 무작위로 데이터를 훈련과 테스트로 나누었습니다 다른 CNN SAS DLPy는 다양한 사전 구축 네트워크 아키텍처를 제공합니다 매우 효과적입니다

여기서는 CNN을 구축하는 데 사용할 것입니다 MobileNetV1 아키텍처의 경우 다음과 같은 기본 매개 변수를 지정합니다 클래스 수 입력 이미지를 정규화하기위한 오프셋 및 스케일로 분류 될 수있다 또한 임의 뒤집기와 자르기를 사용하여 입력 이미지를 보강합니다 MobileNetV1 모델에는 축소 매개 변수 인 alpha가있어 출력 채널 수 옵티 마이저를 설정 한 후 모델을 학습 할 준비가되었습니다

훈련 로그는 많은 유용한 정보를 알려줍니다 여기에서 모델 매개 변수의 수가 8 백만임을 알 수 있습니다 대상에는 6 개의 클래스가 있습니다 훈련 손실과 오류로 반복 기록을 그릴 수 있습니다

16 오류 후 훈련 오류가 감소하고 수렴 함을 보여줍니다 최종 교육 오류는 약 54 %입니다 다음으로 테스트 데이터에서 모델 성능을 평가합니다 MobileNetV1 모델의 오류율은 5

3 %입니다 좋아요! 올바른 예측과 잘못된 예측을 통해 모델을 확인함으로써, 모델이 패턴을 배우고 합리적인 예측을한다는 것을 알 수 있습니다 다음으로 비슷한 단계를 따라 다른 CNN (ShuffleNetV1, MobileNetV2, 및 ResNet50 자세한 내용은 노트북을 참조하십시오 이 모델의 테스트 오류는 다음과 같이 요약됩니다

탁자 이 3 가지 경량 모델은 일반 모델보다 매개 변수가 훨씬 적습니다 ResNet50은이 소매 데이터의 정확성을 향상시킵니다 이 비디오에서 SAS DLPy를 사용하면 이러한 작은 크기를 빠르게 구축하고 훈련 할 수 있습니다 그러나 효율적인 CNN

앞으로의 작업에 이러한 모델을 적용 해 볼 수 있기를 바랍니다 시청 해 주셔서 감사합니다! 안녕하세요 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 딥 러닝과 함께 일할 수있는 특권이 있습니다 R & D 팀 컴퓨터 용 Python 및 DLPy 및 SAS Viya를 사용한 딥 러닝을위한 비디오 시리즈입니다

시력 이 특정 비디오에서는 패션에 태그를 지정하기 위해 멀티 태스킹 딥 러닝 모델을 훈련하고 싶습니다 품목 이제 기계 학습에서 종종 이미지를 가져 와서 레이블을 지정하고 단일 이미지를 만듭니다 옷의 종류를 분류하는 것과 같이지도 학습을 통해 하나의 작업을 분류합니다 드레스인가요? 티셔츠인가요? 벨트인가요? 그리고 색상과 같은 다른 의미 속성이 있고 입력 데이터에 레이블을 지정하면 색상을 분류하기 위해 회선 신경망과 같은 다른 것을 훈련하십시오

종종 고려해야 할 장점과 장점 중 하나는 단일 모델을 훈련시키는 것입니다 이 두 가지 과제를 동시에 동시에 배우는 것입니다 이를 유용한 정보를 활용하는 패러다임 인 멀티 태스킹 학습이라고합니다 전체적인 일반화를 향상시키기 위해 여러 관련 작업에서 즉, 모델이 더 잘 맞는 경향이 있습니다 한 작업에 대한 정보가 다른 작업을 예측하는 데 신뢰성을 부여 할 수 있기 때문에 좋습니다

단일 모델이 있으므로 두 모델을 사용하는 것보다 배포가 훨씬 쉽습니다 또는 더 많은 모델 따라서보다 쉽게 ​​관리하고 생산할 수 있습니다 시작하기 전에 멀티 태스킹 학습은 매우 강력합니다 자율 주행 차와 같은 많은 응용 분야에 사용됩니다

영어로 된 문서 모음이 있다고 가정 해 봅시다 프랑스어, 독일어 및 이탈리아어로 번역하고 싶습니다 거기에는 동시에 훈련하는 세 가지 작업이 있습니다 이제이 예에서는 이미 CAS 세션을 시작했습니다 DLPy를로드했으며 CAS 서버에 연결했습니다

가장 먼저 보여 드리고 싶은 것은 디스크에서 이미지를로드하고로드하는 방법입니다 이 예제에서는 하위 디렉토리에서 읽은 후 레이블을 재귀 적으로 가져옵니다 따라서 실제로 디스크에서 데이터를로드하여 메모리로 읽어들입니다 서브 디렉토리에서 레이블을 당기십시오 다음으로하는 일은 간단한 빈도 수이며 데이터가 상당히 균형을 이루고 있음을 알 수 있습니다 모든 작업에서 332 개에서 386 개의 관측치가 있습니다

이런 종류의 균형을 가질 필요는 없으며 분명히 콜스 나 메이 시즈, 우리는 더 많은 관측을 할 것이지만 이것은 간단한 데모입니다 이제 멀티 태스킹 딥 러닝을 수행하는 데있어 가장 까다로운 부분 중 하나는 작업 레이블 자체 이제 내가하고있는 첫 번째 일은 Pandas 데이터 프레임을 사용하고 getDummies를 단순히 이진 지표를 만듭니다 딥 러닝 패키지에는 정말 강력한 것이 있습니다 SAS 함수 컴파일러입니다

이를 사용하여 자신의 손실 함수를 찾을 수 있습니다 여기에서는 계산 된 vars를 사용하여 조건부로 추가 작업을 조건부로 정의하고 있습니다 여성, 의복의 조화는 무엇이며, 나는 그것을 다른 사람들과 다시 합류합니다 데이터 여기 간단한 머리를보고 몇 가지 관찰 만 살펴보면 이제 9 개의 총 작업이 동시에 진행되고 있음을 알 수 있습니다

여자를위한 것이 든 아니든 자, 여기에 이미지를 보여 드리는 예가 있습니다 그들이 어떻게 생겼는지 딥 러닝의 많은 머신 러닝 문제와 마찬가지로 데이터 크기도 조정합니다 200×200으로 설정하고 CAS 서버의 모든 작업자 노드에서 데이터를 섞습니다 여기서 20 %의 샘플을 작성하고 있음을 명심하십시오 이것은 홀드 아웃 데이터 세트 테스트이며, 나머지 80 %의 데이터를 사용하여 학습합니다

에 모델 이제이 시점에서 직접 비순환 그래픽 인 기본 아키텍처를 정의하겠습니다 네트워크를 위해 그리고 DL Plot을 사용하여이를 수행하고 있습니다 입력 레이어, 컨볼 루션 레이어, 배치 규범 풀링 및 밀집 레이어가 있습니다

그러나이 네트워크 플롯을 보면 기본적으로 하나의 아키텍처가 있음을 알 수 있습니다 그리고 그 아키텍처는 우리가 시도하는 모든 결과 작업과 공유됩니다 예측하십시오 모든 작업에 대해 동일한 네트워크를 가질 필요는 없습니다 이것은 기본 예이며 여기에서 실제로 잘 작동합니다 예측하려는 각 작업에 대해 서로 다른 네트워크 아키텍처를 가질 수 있습니다

아키텍처를 정의한 후 모델을 학습하려고합니다 이 예에서는 운동량과 같은 매우 기본적인 최적화 방법을 사용하고 있습니다 60 개의 EPICS를하고 있는데 훈련 옵션을 정의하고 싶습니다 이제 partition이 0 인 곳을 사용하고 있습니다 그것은 훈련 데이터의 80 % 만 가져올 것입니다

모델 무게 등 나중에 득점을 할 수 있습니다 GPU에서도 이것을 훈련하고 있습니다 딥 러닝의 곱셈 특성으로 인해 네트워크를 더 빨리 훈련시킬 수 있습니다 모델과 더 빠른 실험

다양한 최적화 방법을 시도해보고 궁극적으로 최상의 모델을 얻을 수 있습니다 더 빠르게 여기에 약간의 출력이 있지만, 내가 시도한 것은 이것을 이것에 요약합니다 반복 플롯 우리가 60 번의 EPICS를했다는 것을 기억하십시오 약 13 ~ 14 개의 EPICS 어딘가에서 쇠퇴와 상실과 시대를보고 있습니다

모델이 실제로 안정화 된 것 같습니다 나는 실제로 그것을 자랑스럽게 생각합니다 좋아 보인다 테스트 데이터와 비교하여 먼저 확인하겠습니다 이 모델은 훈련을 위해 개발되었습니다 이제 데이터의 20 %를 부분 집합 화하겠습니다

훈련에서 절약 한 모델 가중치를 사용하여 해당 데이터의 점수를 매길 것입니다 그리고 여기서 볼 수 있듯이 모든 작업에 대해 평균 제곱 오차가 매우 낮습니다 좀 더 세분화되고 실제로 혼동 행렬과 같은 것을보고 모델이 테스트 데이터에 얼마나 잘 맞는지 그런데이 예측값 p_는 테스트 데이터에 대한 예측값을 나타냅니다 내가 훈련 한 모델에 나는 판다에서 약간의 일을한다 파이썬을 DLPy와 똑바로 혼합하는 것이 좋습니다

그리고 9 가지 작업 각각에 대한 분류 행렬 인 혼동 행렬을 얻습니다 행은 실제 값을 나타내고 열은 예상 값을 나타냅니다 벗어난 대각선에서, 우리가 잘못한 곳입니다 여기에 검은 색은 4 개, 파란색은 4 개, 빨간색은 1 개, 우리는 다른 수업을 살펴보고 정말 잘하고 있습니다 마지막으로, SAS에서 딥 러닝의 비밀 소스 조각 중 하나는 ASTORE

여기에서 실제로 모델을 이진 파일에 저장하여 배치 스코어링을 수행 할 수 있습니다 스트리밍 분석을 사용하여 점수를 매기거나 다른 모델과의 작업을 위해 모델을 ONNX로 가져 오기 PyTorch 및 TensorFlow와 같은 패키지 여기에이 작업을 완료하고 모델을 저장했으며 다음 비디오에서는 실제로 스트리밍 분석을 사용하여이 모델의 점수를 매기는 방법을 살펴 보겠습니다 결론적으로, 멀티 태스킹 딥 러닝은 실제로 여러 개를보고 예측할 수있게합니다 동시에 작업

DLPy를 사용하면 간단합니다 다음 비디오에서 to기를 기대합니다 Python 및 SAS Viya Computer Vision Series를 사용한 딥 러닝에 오신 것을 환영합니다 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 SAS Deep과 함께 일합니다

학습 R & D 팀 이 비디오에서는 DLPy의 자매 인 ESPPy를 사용하여 멀티 태스킹을하고 싶습니다 딥 러닝 모델 이제 이미 멀티 태스킹 딥 러닝 모델을 훈련했습니다 이미지를 모아서 9 가지 작업을 예측하고 동시에 수행 할 수있는 모델을 개발했습니다

이 예제에서하고 싶은 것은 ESPPy를 사용하는 것입니다 또한 SAS 이벤트 스트림 처리 창에 연결할 수 있습니다 프로젝트를 구축하고 창과 상호 작용하며 모델을 배포합니다 SAS Event Stream Processing은 정말 멋집니다 여기에는 클러스터링에서 시계열 분석에 이르는 여러 스트리밍 작업이 포함됩니다

감정 분석 또는 공동 필터링과 같은 작업도 수행 할 수 있습니다 하지만이 데모에서는 이미지 처리 창과 온라인 창을 사용하겠습니다 딥 러닝 멀티 태스킹 모델을 배포 할 수 있습니다 이제 가장 먼저해야 할 일은 실제로 프로젝트를 만드는 것입니다 이 멀티 태스크를 호출하고 실제로이 셀을 실행하겠습니다

그리고 다음으로하고 싶은 것은 프로세스 흐름이나 관로 실제로 이미지를 읽으려면 소스 창이 필요합니다 우리가 일부 교육에서했던 것처럼 모델을 훈련 할 때마다 일반적으로 이미지 따라서 점수를 매길 때 20에서 20으로 크기를 조정하고 이미지 처리를 사용하겠습니다 그렇게하는 창

다음은 모델을 가져와야한다는 것입니다 모델을 학습하고 ASTORE로 저장 했으므로 모델 리더가 있습니다 그것을 읽을 수있는 창 그리고 실시간으로 점수를 생성하는 득점 창이 있습니다 그리고 보면, 프로젝트는 다음과 같습니다

나는 데이터를 읽고 이미지를 표준화하고 점수를 생성합니다 그런 다음 실제로 프로젝트를로드하고 몇 개의 출력 테이블을 설정하겠습니다 여기에 쓸 것입니다 이제 첫 번째 노트북을 사용하여 실제로 노트북을 정의하기 때문에 별도의 노트북이 있습니다 ESP 프로젝트

이 책에서는 간단히 게시하고 점수 매기기 프로세스를 시작하겠습니다 그래서 저는 팔고이 모든 것을 실행합니다 실제로 모델의 점수를 매 깁니다 다시 여기로 돌아가서 이제 이벤트 스트림 처리 엔진을 사용하겠습니다 득점

실제로 예측 확률과 함께 태그가 지정되고 라벨이 지정된 이미지가 표시되는 것을 볼 수 있습니다 작동하는 예제를 제공하는 작은 세트입니다 수면 시간은 03입니다 이벤트 스트림 처리 엔진은 실제로 초당 최대 50 프레임을 수행 할 수 있습니다

시원한 이 데모에서는 이미 멀티 태스킹 학습을 위해 개발 된 모델을 검색을 용이하게하기 위해 스트리밍 분석을 사용하여 배포 할 수있었습니다 콜이나 메이시 같은 사람 교육용 DLPy와 함께 ESPPy를 사용하면 실제로 쉽게 수행 할 수 있습니다

How To Build A Machine Learning Model For Predictive Analytics Using Azure Machine Learning Stuido

이 비디오에서는 머신 러닝 모델을 구축하는 방법을 보여 드리겠습니다 Azure Machine Learning Studio를 사용한 예측 분석 그리고 그렇게하기 위해 실리카 불순물의 비율을 예측하는 예를 사용 부유 공장의 철광석 농축 물

그래서이 데이터 세트를 다운로드했습니다 실제 플랜트 데이터 및 실험실 품질 테스트 결과 따라서 이 데이터 세트를 업로드 한 사용자, 두 번째 및 세 번째 열은 품질입니다 철광석이 공장에 공급되기 직전의 철광석 측정 8 열까지는 품질에 영향을 미치는 가장 중요한 변수입니다 광석 농축 물 나머지 열은 다음과 같은 프로세스 데이터입니다

기둥 내부의 수평 및 공기 흐름으로 인해 광석 품질에도 영향을 미칩니다 그리고 마지막 두 열은 품질에 대한 실험실 측정입니다 그래서 여기서 목표는 실리카의 백분율 인 마지막 열을 예측하는 것입니다 철광석 농축 물 제가하려고하는 것은이 CSV 파일을 업로드하는 것입니다 Azure Machine Learning 스튜디오에 이를 위해 Azure Machine으로갑니다

Learning Studio 웹 사이트를 방문한 다음 로그인합니다 자, 가장 먼저해야 할 일은 내 데이터 세트를 가져 오는 것입니다 새로 만들기, 데이터 세트를 클릭 한 다음 로컬 파일에서 업로드합니다 그럼 내가 할게 내 데이터 세트를로드 한 다음 확인을 클릭합니다 자 이제 나는 새로운 실험을 만들 것이다

새로 만들기, 실험에 이어 빈 템플릿을 선택하겠습니다 좋아, 그래서 새로운 것을 만들 때 실험 내 기계 학습 및 데이터가있는이 새로운 웹 페이지를 얻습니다 여기 왼쪽에있는 탐색 도구와 오른쪽에있는 탐색 도구가 있습니다 속성 창 실험 이름을 드리겠습니다

알았어 그래서 이제 여기에있는 데이터 세트로 이동 한 다음이 데이터 세트를 드래그하여 캔버스에 올렸습니다 그런 다음 내 데이터 세트의 내용을 시각화 여기에서이 원을 클릭하고 시각화를 선택할 수 있습니다 그래서 당신은 이것들을 볼 수 있습니다 데이터 세트의 내용이며 여기에서이 열을 예측하려고합니다 과 여기에서 데이터 세트의 행 수를 볼 수 있습니다 자 이제 훈련하세요 이 모델에서는이 데이터 세트의 모든 열을 사용하지 않겠습니다

몇 개의 열을 선택하십시오 이를 위해 데이터 변환으로 이동 한 다음 여기에서 조작 할 수있는 모듈을 선택하겠습니다 데이터 세트의 열 그런 다음 데이터 세트를 열에 연결합니다 selector를 클릭 한 다음 여기에 속성 창에서 열 선택기를 시작합니다 날짜를 남기고 2 열에서 8 열을 선택하겠습니다 컬럼 4 5 6 & 7의 기류를 선택하십시오 1 열부터 7 열까지의 레벨을 선택한 다음 물론 예측하고자하는 열을 포함하겠습니다

좋아, 그럼 움직일 게 선택한 열에이 열이 표시됩니다 권리 그런 다음 확인을 클릭합니다 이제 다음으로해야 할 일은 내가 좋아할 머신 러닝 알고리즘을 선택하십시오 불순물 예측 이제 백분율은 카테고리 I가 아닌 숫자이기 때문에 이 문제는 분류 문제가 아니라 회귀로 간주되므로 기계 학습, 모델 초기화, 회귀 및 여기에서 의사 결정 숲 회귀 알고리즘

이제 저는 전문 데이터 과학자가 아닙니다 이 특정 회귀 모델을 선택할 구체적인 근거가 없으므로 데이터 과학자이거나 데이터 과학과 함께 일한 경우 알려주세요 의견 에서이 모델을 훈련시키는 가장 좋은 알고리즘은 무엇 이었습니까? 괜찮아 다음으로해야 할 일은 훈련에 80 %를 사용하도록 데이터를 분할하는 것입니다 이를 위해 분할 데이터 모듈을 사용하겠습니다 그런 다음 구성하겠습니다 데이터의 80 %를 왼쪽 출력으로 전송 한 다음 출력을 연결합니다 열 선택기에서 내 데이터 스플리터의 입력으로 자 이제 우리는 모델을 훈련 시켜서 기차 모듈을 검색하겠습니다

이제 우리는 이 모델을 훈련시키기 위해 데이터 세트의 80 %를 사용하고 있습니다이 왼쪽 출력을 연결하겠습니다 열차 모델의 입력에 연결 한 다음 기계 학습을 연결하겠습니다 열차 모델의 다른 입력에 대한 알고리즘 그리고 우리는 우리가 예측하고자하는 컬럼은 실리카 비율이라는 트레이너 집중해서 트레이너의 컬럼 선택기를 시작하겠습니다 그리고 여기에 예측하려는 열을 선택한 다음 확인을 클릭합니다 그리고 이제 훈련 후 모델이 어떻게 수행되었는지 확인하고 그 점수 모듈

점수 모델을 캔버스로 드래그합니다 이 모델이 불순물 수준을 예측할 수 있는지 테스트하기 위해 20 %를 사용합니다 아직 보지 못한 데이터 세트 섹션에 대해 20 %를 연결하겠습니다 점수 모델의 입력과 다른 트레이너의 출력에 입력 그리고 우리가 시각화하기 위해 평가 모델이 필요합니다 실적 측정 항목을 사용하여 점수 모델의 출력을 평가 모델의 입력

좋아, 그게 내가해야 할 전부 야 저장하겠습니다 그런 다음 실행을 클릭하여 모델 교육을 시작합니다 좋아, 그래서 훈련 내 모델이 완성되었습니다 이제 모델의 성능 메트릭을 보려면 평가 모델의 출력을 마우스 오른쪽 버튼으로 클릭하고 시각화를 선택하십시오 좋아 하나 여기서 눈에 띄는 것은 결정 계수입니다 모형의 예측 검정력을 0과 1 사이의 값으로 나타냅니다

모형은 아무것도 설명하지 않으며 1은 완벽하게 적합 함을 의미합니다 보시다시피 우리는 074을 얻었습니다 불순물의 수준을 예측하는 데 매우 좋습니다 그리고 여기에 나는 음수 로그 가능성에 대해 엄청나게 높은 숫자, 그리고 실제로 설명 할 수없는 평균 절대 오차, 따라서 데이터 과학자라면 당신은 우리에게 그것을 설명하고 싶을 수도 있습니다

이제 다음 단계는 게시하는 것입니다 이 모델은 웹 서비스이며 웹 서비스를 설정하기 위해 여기로갑니다 권장 옵션을 선택하십시오 이제 웹 서비스를 게시하면 그런 다음 모델 및 모델에 실시간 프로세스 변수를 보낼 수 있습니다 불순물 비율의 예측에 응답하고 예측에 대해 얼마나 확실한지 백분율로 보내십시오

여기에 웹 서비스 입력을 점수 모델에 연결 한 다음 모델이 실리카 농축 비율을 예측하는 법을 배워서 열에서 제거하십시오 알았 으면 저장하고 실행하겠습니다 그런 다음 웹 서비스를 배포하십시오 자, 이것이 내가 사용할 인터페이스입니다 모든 장치, 컴퓨터 또는 컴퓨터에서 기계 학습 모델과 통신 소프트웨어 조각 따라서이 인터페이스를 사용하여 모델을 수동으로 테스트 할 수 있습니다 공정 변수에 대한 데이터를 입력합니다

요청 / 응답으로 이동하면 여기에서이 인터페이스를 사용하면 플랜트의 PLC 또는 HTTP를 사용하는 에지 게이트웨이의 머신 러닝 모델 실험 계획안 게시 요청을 보낼 수 있습니다 여기 내려 가면 샘플 코드가 있습니다 C #, Python 및 R의 경우 올바르게 사용할 수 있습니다 클라우드에서 머신 러닝 모델과 대화 할 수 있습니다

당신의 의견을 듣고 싶습니다 시청 해 주셔서 감사합니다 아래 댓글 섹션에 대한 의견

Introduction to Runway: Machine Learning for Creators (Part 2)

[철도 휘파람] 다른 비디오 자습서에 오신 것을 환영합니다 Runway 작업 및 기계 학습 모델 실행에 대한 정보 활주로 자체에서 이 비디오 자습서를보기 전에 전에 활주로를 사용한 적이 없다면 돌아가서 내 소개를보고 싶을 수도 있습니다

활주로에 다운로드하고 설치하는 방법 그러나 솔직히 말해서, 당신은 아마 그것을 알아낼 수 있습니다 runwaymlcom으로 이동하여 베타 다운로드를 클릭하십시오 활주로 소프트웨어를 다운로드하여 열어야합니다 그런 다음 모델 찾아보기로 이동합니다

모션 아래로 가서 PoseNet을 클릭하겠습니다 그리고 당신은 바로 여기에 자신을 찾을 수 있습니다 이것이 바로 내가있는 곳입니다 Runway를 설치했습니다 다운로드했습니다

그리고 PoseNet의 Runway 소프트웨어 페이지에 있습니다 기계 학습 모델 자, PoseNet은 무엇입니까? PoseNet은 기계 학습 모델입니다 한 명 이상의 사람에 대한 실시간 골격 추적을 수행합니다 그리고 무엇을 추측합니까? 나는 사람이고, 활주로가 여기에 달려 있습니다 PoseNet과 함께

그래서 나는 그것을 실행할 것입니다 먼저 작업 공간에 추가를 클릭하십시오 그래서 이미 가지고있는 작업 공간이 있습니다 코딩 기차 라이브라는 이전 비디오에서 만든 흐름 입력 소스를 선택하고 싶습니다 나는 그것이 나의 웹캠이되기를 원한다

그렇습니다, 활주로가 바로 나아갑니다 그런 다음 출력 소스를 선택하고 싶습니다 내가 원하기 때문에 처리하고 싶다 이 기계 학습 모델을 실행 한 결과를 얻기 위해 PoseNet 자체 처리 하지만 지금은 미리보기를 클릭하겠습니다 미리보기를 클릭합니다

아, 그리고 나는 달려야한다 하지만 그거 알아? 이것은 이전 비디오에서 보여준 것과 다릅니다 로컬로 실행 옵션이 있습니다 실제로이 모델은 로컬에서만 실행할 수 있습니다 클라우드에서 이것을 실행하는 것은 어리석은 일입니다

이 모든 시간을 보내야했기 때문에 네트워크를 통한 데이터 그리고 실행하기가 매우 쉽습니다 이것은 매우 작고 빠른 모델입니다 대부분의 최신 컴퓨터에서 실행할 수 있습니다 로컬로 실행을 클릭하겠습니다

따라서 GPU 크레딧이 필요하지 않습니다 물론 무료로 사용할 수 있습니다 그리고 우리는 그곳에가는 것을 볼 수 있습니다 지금 실행 중입니다 다양한 요점을 추측합니다

내 골격의 출력에 내 몸에 있습니다 볼 수있는 이하 그래서 일에 대한 좋은 점 중 하나 활주로와 그 모델은 많이 모델마다 다른 매개 변수와 값이 있습니다 조정하고 변경하여 실행할 수있는 것들 다른 방법으로 그리고 이것들은 일종의 하이퍼 파라미터로 알려져 있습니다 기계 학습 모델에 그래서 그들 중 일부는 실제로 모델 실행을 중단 한 다음 나는 그것을 가지고 시작할 수 있습니다

예를 들어이 아키텍처는 실제로 모델을 더 작게 만들 수 있습니다 정확도는 떨어질 수 있지만 더 빨리 실행됩니다 그러나 예를 들어, 나는 단지 가고 있습니다 대신 075로 변경하십시오 다시 실행하겠습니다

그러나 이러한 매개 변수 중 일부는 실제로 실시간으로 조정됩니다 예를 들어 너비와 높이를 변경할 수 있습니다 실제로 변화하는 이미지의 웹캠 자체의 이미지 해상도 원하는 경우 그레이 스케일을 더 만들 수 있습니다 실제로 여러 가지 작업을 수행하여 실제로 조정할 수 있습니다 들어가기 전에 이미지

그러나 이것은 중요한 부분이 아닙니다 이 비디오에서하고 싶은 일을 이 비디오에서하고 싶은 것은 여기서 Runway에서 모델을 실행하는 순간이 있습니다 나는 그것을 가지고 놀 수 있고, 조정하고, 정확하게 얻습니다 내가 원하는 방식으로 작동합니다 다음 단계로 넘어 가고 싶습니다 결과를 볼 수 있도록 여기에서 실행하도록 내 자신의 소프트웨어에서 그렇게하겠습니다

이것을 시도하는 데 사용할 소프트웨어 프로세싱이라고합니다 이 크기는 출력의 활주로에서 640×362, 처리 코드에서 수행 할 작업 캔버스 크기를 640 x 362로 설정합니다 무효 그리기 배경 0 이제 처리 스케치가 있습니다

내가 여기서 뛰고 있습니다 결과, 모델의 결과를 어떻게 볼 수 있습니까 내 프로세싱 스케치에서? 다양한 네트워크 프로토콜이 있습니다 활주로가 지원합니다 그리고 나는 그들에 대해 여기에서 찾을 수 있습니다 이 네트워크 탭을 클릭하여 그리고 처리 작업에 사용하고 싶은 것 OSC입니다 여러 가지 이유가 있습니다 한 프로토콜을 다른 프로토콜보다 선택하십시오

그것은 실제로 당신이하고있는 것에 달려 있습니다 하나의 이미지를 얻고 자하는 경우 HTTP 요청이 가장 적합합니다 그리고 다른 비디오에서 할게요 Runway에서 스타일로 다시 작업하는 방법을 보여 드리겠습니다 하지만 지금은 클릭합니다 OSC에서 처리와 잘 작동합니다 그리고 여기에 많은 정보가 있습니다

이 말은 서버 주소입니다 이것이 내가 활주로에서 필요한 가장 중요한 것입니다 내가 말하고자하는 것은 Processing이 유일한 IP라는 것입니다 로컬 IP 인 주소 이 컴퓨터의 주소와 포트 번호 OSC 메시지를 얻을 수 있습니다 여기를 클릭하겠습니다 그리고 ip와 같은 문자열을 만들 것입니다

나는 아마 갈거야 확신 별도의 변수에 포트 번호를 원합니다 그리고 이와 같은 포트 번호를 만들 것입니다 이제 여기 앉아서 모든 코드를 작성할 수 있습니다 이것을 위해, 나는 보통 코딩 기차 비디오에서 할 수 있습니다 그러나 이것은 상당히 다른 상황입니다 정말 예제를보고 싶어요 실행하고이를 수행하는 방법을 보여줍니다

그리고 Runway 작업에 대한 좋은 점 중 하나 미리 만들어진 예가 많이 있습니까? 다른 플랫폼과 소프트웨어를 사용하는 경우 그 중 하나가 처리 중입니다 그래서 당신이 실제로 어떻게하는지 보여 드리겠습니다 현실 세계에서이 작업을 수행하는 방법 지금하는 방법입니다 Runway ML GitHub에 가면 실제로 한 단계 뒤로 돌아 가야합니다 Runway ML 아래로 이동하십시오 Runway 소프트웨어에 대한 GitHub 페이지는 다음과 같습니다 그리고 많은 정보가 있습니다

높은 수준의 물건과 같은 것이 있습니다 머신 러닝 모델을 이식하는 방법 활주로 자체 자신의 모델을 훈련했거나 Runway에서 지원하지 않는 모델을 찾으십시오 당신이 그것을 추가 할 수있는 방법 그러나 그것은 우리가 여기서 실제로하고있는 것이 아닙니다

내가 찾고 싶은 것은 여기 Processing, Runway 그리고 가공 여기를 클릭하면이 저장소에 프로세싱과 함께 Runway를 사용하는 많은 예제 attnGAN에 StreetView가있는 것을 볼 수 있습니다 얼굴 랜드 마크, im2txt 및 voila, PoseNet 이것은 내가 일하고있는 것입니다

이 예를 살펴 보겠습니다 나는 이것이 오픈 소스 프로젝트라고 말해야한다 프로세싱은 오픈 소스 프로젝트입니다 내가 말했던 것에 관여 다른 많은 비디오에서 다른 모델을 찾으면 활주로에서 당신이 일을하고 기여하고 싶어 여기에 처리 예제가 있으므로 권장합니다 Runway의 창립자이자 제작자 중 한 명인 Chris는 그리고 나는 가공에 대해 이야기하고있다 활주로 도서관

그리고 최근에 두 개의 비디오 자습서를 만들었습니다 Processing Java 라이브러리를 만드는 방법에 대해 설명합니다 앞으로 처리 될 프로젝트를 보게됩니다 활주로 도서관 그러니 그 일에 참여하고 싶다면 의견을 적어 알려주세요 그리고 아마도이를 위해 GitHub 저장소를 만들 것입니다

좋아, PoseNet 아래로 가야겠다 그리고 posenetpde 아래에서 여기를 클릭하겠습니다 붙여 넣기 만하면됩니다 하지만 한 조각 씩 갈 것입니다

그리고 이미 활주로 호스트와 활주로 포트를 볼 수 있습니다 그래서 코드에서 실수를했습니다 그래서 저는-01을 놓쳤습니다 채팅에 대해 이미 이야기하고 있습니다

그리고 여기에 여분의 1이 있습니다 그리고 이것은 정수 여야합니다 그리고 이것은 실제로 호스트입니다 사실 같은 변수를 사용하겠습니다 이름은 runwayHost 및 runwayPort입니다 좋아, 지금 당장 얻은 것 같아

이제 예제가 작동하려면 처리 OSC가 있는지 확인해야합니다 라이브러리가 설치되었습니다 여기 와서 복사하면 이 수입 명세서를 붙여 넣습니다 꼭 필요한 OSC 객체를 붙여 넣을 수 있습니다 그리고 우리는 내가 OscP5 클래스가 존재하지 않는 오류가 있습니다

프로세싱 OSC를 설치하지 않았기 때문입니다 도서관 사용하기 때문에 이미 설치했을 수 있습니다 다른 프로젝트로 그러나 나는 여기에 갈 수 있었다 Sketch, Import Library, 라이브러리, OSC를 추가하여 검색하십시오

이것은 내가 찾고있는 라이브러리입니다 oscP5 설치를 클릭하겠습니다 이제 오류 메시지가 사라지는 것을 볼 수 있습니다 다음으로하고 싶은 것은 객체를 만드는 것입니다 OSC 메시지를 수신합니다 그리고 나는 이것을 새로운 OscP5 객체로 만들 수 있다고 생각합니다

이 특정 스케치에 대한 참조를 제공해야합니다 스케치에서 이벤트를 트리거해야하기 때문에 사용 가능한 데이터가있을 때 그런 다음 포트 번호를 지정하십시오 이것을 runwayPort라고합니다 활주로 예제를 보면 실제로 OscProperties라는이 개체를 사용하고 있습니다 좀 더 정교합니다

원격 주소, 수신 포트, 데이터 그램 크기와 다른 것들 아마도 이것을 내 예제에 붙여 넣을 것입니다 그러나 그것이 더 많은 종류의 것들과 함께 작동하는지 궁금합니다 방금 말한 단순화 된 기본 OscP5 객체 이것과 특정 포트 그러나 나는 이것을 필요로한다

방송 위치가 필요합니다 왜냐하면 런웨이에게 메시지를 보내야합니다 연결되어 있거나 연결이 끊어졌습니다 여기에는 두 가지가 있습니다 프로세싱 소프트웨어가 있습니다

그리고 Runway 소프트웨어가 있습니다 둘 다 내 컴퓨터에서 로컬로 실행 중입니다 이제 다른 시나리오에서 클라우드 GPU도 포함될 수 있습니다 활주로는 메시지를주고받습니다 그리고 이것은 내가 가고있는 것입니다 다음 예제에서해야 할 일 StyleGAN이라는 이름으로 Runway가 클라우드 GPU 와도 대화하도록하겠습니다

그러나 여기서 일어나지 않습니다 PoseNet은 실제로 내부에서 실행되고 있습니다 기본적으로 Runway 자체에 로컬로 래핑됩니다 PoseNet은 여기서 Runway에서 로컬로 실행됩니다 처리 중이 connect와 같은 메시지를 보내는 중입니다

나도 정보를 듣고 싶어 그것은 일회성 메시지입니다 그런 다음 Runway는 OSC를 통해 지속적으로 데이터를 보냅니다 PoseNet으로 감지하는 포즈 처리 웹캠 입력에서 모델 그래서 내가 원한다면 아마도 방법을 알아낼 수있을 것입니다 카메라 입력을 처리로 가져 오려면 이미지를 활주로로 보내고 활주로 결과를 다시 보냅니다 하지만 런웨이는 카메라에 직접 연결할 수 있습니다 아주 간단하기 때문에 그렇게 할 수도 있습니다

그래서 여기에도 같은 것을 넣어야합니다 웹캠처럼 여기에 약간의 메모를하면 웹캠이 런웨이와 대화 중입니다 나는 또한 처리와 이야기 할 수 있습니다 처리 결과도 표시하려면 이것이이 특정 예에서 진행되고있는 것입니다 이 브로드 캐스트 위치를 만들고 싶습니다 네트 주소 개체입니다 여기에 넣어야합니다

그리고 내가하고 싶은 첫 번째 일은 연결 메시지를 보내면됩니다 복사해서 여기에 붙여넣고 연결이라고하겠습니다 처리를 시작할 때 내가하고있는 일은 connect 함수를 호출합니까? OSC 메시지를 작성합니다 모든 단일 OSC 메시지는 두 부분으로 구성됩니다 이 두 부분은 주소이며 보통 경로처럼 일종의 문자열로 표시됩니다

이것이 서버 / 연결임을 알 수 있습니다 그게 주소 야 아니면 거의 메시지처럼 생각할 수도 있습니다 내가 생각하는 방식으로 그런 다음 데이터 이 경우에는 실제로 주소 자체가 메시지이므로 데이터가 없습니다 이것은 매우 단순화 된 것입니다 이 연결 메시지가있는 곳입니다

연결 중입니다 메시지 이름, 주소, 거기에 있어야 할 유일한 것입니다 데이터가 없습니다 그러나 Runway가 데이터를 다시 보내면 데이터 또는 요점과 같은 메시지 이름을 갖습니다 또는 포즈, 그런 것

그리고 그것은 많은 양의 데이터와 함께 패키지 될 것입니다 모든 xy의 모든 위치와 같습니다 자, 이것을 실행하고 무슨 일이 일어나는지 봅시다 예, 꽤 좋습니다 오류가 없습니다

연결되었으므로 메시지를 듣고 싶습니다 그리고 그 방법은 OSC 이벤트라는 이벤트를 사용하는 것입니다 마우스 누르는 것과 비슷합니다 또는 키 누르기 또는 직렬 이벤트 또는 캡처 이벤트 이것은 매우 특별한 이름을 가진 Processing의 함수입니다 OSC 이벤트라고합니다

그리고 oscP5 라이브러리는 그 함수를 호출하는 것을 알고 있습니다 데이터가 들어올 때 붙여 넣기 만하면됩니다 그리고 여기에 넣겠습니다 그리고 제가하려고하는 것 – 이것을 보도록합시다 그것을 통과 한 OSC 이벤트가 있습니다 OSC 메시지 이 메시지를 메시지로 변경하겠습니다 메시지에 해당 데이터가 있다면 주소와 같습니다

기억? 주소에는 데이터가 있으며, 이것이 우리가 찾고있는 주소입니다 그렇지 않은 경우 여기서 나가십시오 그래서 들어오는 다른 메시지를 무시하고 싶습니다 그런 다음 내가하고 싶은 일은 데이터 자체를 얻는 것입니다 따라서 메시지의 데이터는 실제로 문자열로 제공됩니다

그러나 문자열은 JSON으로 형식이 지정됩니다 JavaScript 객체 표기법입니다 JSON이 무엇인지 모른다면 JSON이 무엇인지 설명하는 다른 비디오로 JSON은 JavaScript에서 정말 잘 작동합니다 그것으로 작업하는 것은 조금 어색합니다 처리가 Java이므로 처리 중입니다

기본적으로 JavaScript를 사용하지 않습니다 그러나 우리는 그것을 작동시킬 것입니다 메시지의 첫 번째 자체는 JSON 데이터의 큰 문자열이며 JSON입니다 Processing의 parseJSONObject로 파싱 할 수있는 객체 기능 그런 다음 콘솔에서 볼 수 있습니다

실제로 데이터를 가져 오는지 봅시다 아무것도 얻지 못했습니다 왜 그런지 궁금합니다 그리고 실제로 이유를 알고 있습니다 우선, 여기에 실마리가 있습니다

데이터 그램 소켓을 만들 수 없습니다 포트 5100은 이미 사용 중이기 때문에 그리고 나는 여기에 이상한 일이 있다는 것을 잊었다 OSC를 사용하여 둘 사이에서 통신하는 경우 별도의 컴퓨터, 같은 포트 번호를 사용할 수 있습니다 각 개별 컴퓨터에서 하나의 포트 번호 하지만 여기서 활주로에 데이터를 보낼 수 있어야합니다 특정 포트에서 처리로 데이터를 수신 같은 포트가 될 수없는 다른 포트에서 그렇지 않으면 충돌이 발생합니다 제가 방송하는 포트는 57100입니다

이것이 Runway에 나와 있습니다 하지만 메시지를 받고 싶은 실제 포트 57200입니다 그리고 Runway는 자동으로 100을 추가하는 것을 알고 있습니다 무대 뒤에서 그러나 이것은 Runway의 기본 설정입니다

데이터 수신을 위해 다른 포트가 필요합니다 내가 보내는 포트로 코드에서 의미하는 바를 보여 드리겠습니다 이것이 바로 활주로 포트 5757입니다 그것이 내가 방송하고 싶은 포트입니다

그리고 그것은 내 방송 위치의 일부입니다 그것이 내가 방송하는 곳입니다 그러나 메시지를 받고 싶은 곳은 실제로 57200입니다 이제 이것을 실행하면 실제로 메시지가 수신됩니다 하지만 새로운 오류가 있습니다

ArrayIndexOutOfBoundsException입니다 따라서 이것은 런웨이 데이터가 이 포즈를 모두 보내는 것은 실제로 상당히 큽니다 그리고 필요한 것은 더 많은 공간입니다 더 큰 패킷 크기가 필요합니다 그렇기 때문에 Runway 예제에서 이 여분의 OSC 속성이있었습니다 더 큰 데이터 그램 크기를 설정할 수있는 개체입니다

청취 포트는 57200입니다 기본적으로 OscP5를 사용하기 전에 이럴 필요는 없지만 난 복사하여 붙여 넣습니다 이걸 다시 여기에 넣고 이것을 속성으로 변경하겠습니다 저는 이제 모든 조각을 가지고 있다고 생각합니다 내가보아야 할 것은, 우리가 간다, 많은 것들

이것 좀 봐 자, 저는 확신을 가지고 정확하게 처리했습니다 점수– 왼쪽 발목이 보이지 않습니다 왼쪽 발목을 카메라로 볼 수 없기 때문입니다 그래서 그 신뢰 점수가 너무 낮은 이유입니다 위로 스크롤하고 오른쪽 귀를 좋아합시다 매우 높은 신뢰 점수와 x 및 ay를 얻었습니다

내 오른쪽 귀를 위해 이제 저는이 데이터를 실제로 사용할 수있는 시점에 있습니다 런웨이 예제로 돌아가서 여기에 매우 정교한 루프가 있음을 알 수 있습니다 JSON을 파싱하고 모든 다른 핵심 포인트에서 감지하는 모든 것의 모든 다른 위치 지금 훨씬 더 간단한 일을하려고합니다 나는 오른쪽 눈과 왼쪽 눈을 얻을 것입니다

우리가 알아낼 수 있는지 봅시다 우리가 이것에 접근 할 수있는 한 가지 방법은 이 데이터 변수를 전역 변수로 만들 수 있습니다 이 JSON 객체를 사용하겠습니다 저는 이것을 전역 변수로 만들 것입니다 데이터라고하겠습니다

그런 다음 드로우 루프에서 나는 단지 데이터가 널이 아닌 한 Java에 있다는 것을 잊었습니다 그냥 할 수있어 데이터는 Runway로부터 무언가를받을 때까지 null이됩니다 런웨이에서 무언가를 받자 마자 내가해야 할 일은이 JSON을 구문 분석하는 것입니다 조금 더 쉽게하기 위해 내가 한 일 방금 JSON을 가져 와서 인쇄합니다 프로세싱 콘솔에 그것을 JSON 파일에 붙여 넣었습니다

Visual Studio Code에서 볼 수있는 그래서 참조 할 것이 있습니다 그래서 나는 포즈라고 불리는 것을 얻어야한다는 것을 알고 있습니다 가장 먼저 원하는 것은 poses 배열입니다 프로세싱에서 정말 이상한 것 중 하나는 JSON을 사용하면 데이터가 있는지 여부를 지정해야합니다 보는 것은 JSON 객체 또는 JSON 배열입니다

그리고이 포즈 데이터는 표시된대로 배열입니다 이 대괄호로 JSONArray의 포즈가 같다고 말하겠습니다 datagetJSONArray 문자열 포즈 그런 다음 키 포인트 배열을 얻고 싶습니다

아, 둘 이상의 포즈가있을 수 있기 때문에 하지만 포즈가 하나만 있다고 가정하겠습니다 그런 다음 포즈입니다 그럼 요점은 배열이 동일한 posesget 0 이것이 배열의 첫 번째 요소입니다

이제 핵심 포인트라는 새로운 배열을 얻습니다 JSON 배열 요점을 얻습니다 좋은 소식은 런웨이 예제입니다 거기에이 모든 것이 포함되어 있습니다 제가 잘못하면 키 포인트 get element 0이라고 말할 수 없기 때문에 여기에 오류가 있습니다

요소 0은 무엇입니까? JSON 객체입니다 우리는 거기에 갈 이제 핵심 사항이 있습니다 첫 번째 JSON 객체에서 키 포인트라는 JSON 배열입니다 인덱스 0

그렇다면 무엇을 찾고 싶습니까? 이제 핵심 포인트 배열에 있습니다 이것은 요소 0입니다 내가 왼쪽을 알고 있었다면- 아, 이건 쉬워요 코, 왼쪽 눈, 오른쪽 눈을 봅시다 0, 1 및 2, 완벽합니다

그래서 JSONObject nose equals를 얻고 싶습니다 keypointsgetJSONObject 0 그리고 우리는이 중 세 가지를 할 것입니다 왼쪽 눈-나는 이것을 조금하고있다 활주로 예제와 다릅니다

그런 다음 오른쪽 눈 다음에 활주로를 예로 들어 보겠습니다 확실히, 나는 여기서 루프를 사용할 수 있습니다 코, 왼쪽 눈, 오른쪽 눈 그런 다음 입장을 취해야합니다 nosePos는 nos

getJSONObject와 같습니다 코만하면 돼 난 그냥 코를 할거야 여기서 더 간단하게 유지하십시오 외삽하여 알아낼 수 있습니다 왼쪽 눈과 오른쪽 눈을하는 방법- nosegetJSON 객체 위치 그리고 x는 이 코 위치를 호출합니다

코 위치는 x를 얻습니다 이것이 옳다는 것을 확신하십시오 그리고 y는 nosePositionget y와 같습니다 알았어, 내가 뭘 잘못 봤니? getFloat

다시 한번, 저는 Java에 있습니다 유형을 지정해야합니다 내가 모든 것을 올바르게했다면 첫 번째 포즈의 모든 요점을 얻었습니다 코에 대한 모든 데이터가있는 객체를 얻었습니다 그런 다음 해당 물체에서 코 위치를 뺀 다음 x 그리고 그 물체에서 y

휴 이제 2020 년에 타원 x라고 말하겠습니다 그리고 그것을 빨간 코로 만들어 봅시다 25500을 채 웁니다

이것을 실행시켜 봅시다 그리고 우리는 간다 나는 지금 코를 제어하고 있습니다 활주로에서 OSC 메시지 처리로 놀랄 만한

자, 이것으로이 비디오 튜토리얼을 마치겠습니다 확실히, 당신이하고 싶은 일 전체 골격을 참조하십시오 PoseNet을 효과적으로 사용하려면 카메라가 당신으로부터 약 6 피트 정도 떨어져 있기를 원합니다 백업하고 전체 양식을 볼 수 있도록 허용하려고합니다 당신은 또한 이미지를 전달하고 포즈를 취할 수 있습니다

이미지에서 할 수있는 일이 많이 있습니다 그리고 확실히, 나는 추천 할 것입니다 Runway GitHub 리포지토리의 예제를 확인하십시오 이것은 모두 통과하는 멋진 루프가 있습니다 다른 위치의

실제로이 작은 매핑도 그들 사이의 모든 연결이 무엇입니까 실제 골격 자체에 약간의 운동으로 오른쪽 눈과 왼쪽 눈을 갖기 위해 내가 한 일을 확장 할 수 있습니다 그러나 그럼에도 불구하고 Runway 예제 자체를 얻을 수 있습니다 그러나 이것은 어떻게 Runway 자체에서 찾을 수있는 특정 모델 채팅에 참여한 사람이 방금 밀도에 대해 묻고있었습니다 예를 들어 OSC를 통해 활주로에서 통신 할 수있는 자세 처리합니다 하지만 다른 많은 경우에는 웹 소켓이나 HTTP 연결을 사용하고 싶습니다 특히 작업중인 경우 의사 소통 JavaScript로 브라우저에서

다음 비디오에서하려고하는 것은 보고 싶다면 StyleGAN을 실행하여 무지개를 생성하십시오 이미지를 P5에 전달 브라우저 자체에서 렌더링합니다 그리고 대화에서 뉴스 속보, Damien SRSP는 동일한 포트에서 보내기 및 받기를 나타냅니다 기본적으로 OSC 패킷은 수신 및 전송되지 않습니다 보내거나 받아야 할 경우 동일한 포트로 같은 포트에서 어쩌면 내가 실제로 무언가를 할 수 있었을 것입니다 포트 번호와 함께

나도 몰라 나는 사람들이 의견에 그것에 대해 쓸 것이라고 확신합니다 그러나이 코드는 작동합니다 Runway GitHub 리포지토리의 코드가 작동합니다 너무 재밌어요 그걸 써

그것으로 무언가를 만드십시오 나에게 공유하십시오 프로세싱에 대한이 튜토리얼을 즐기 셨기를 바랍니다 활주로 및 로컬에서 실행되는 PoseNet 모델 컴퓨터에서 안녕

[철도 휘파람] [음악 재생]

Introduction to Runway: Machine Learning for Creators (Part 1)

[땡땡] 여보세요 새로운 튜토리얼 시리즈에 오신 것을 환영합니다 소프트웨어에 대한 코딩 트레인 활주로라고 런웨이 란? 런웨이와 땜장이 종류를 다운로드하고 설치하는 방법 주위에? 이것이이 특정 비디오에서 할 것입니다

런웨이는 내가 만든 것이 아닙니다 활주로는 회사, 새로운 회사에 의해 만들어집니다 활주로 자체 그리고 그것은 소프트웨어의 한 조각입니다 사용하고 무료로 다운로드 할 수 있습니다 무료로 사용할 수 있습니다

클라우드 GPU 크레딧이 필요한 측면이 있습니다 나중에 살펴 보겠습니다 그리고 무료 크레딧과 쿠폰 코드를 얻을 수 있습니다 이 비디오의 설명에서 찾을 수 있습니다 하지만 난 정말 당신과 이야기하고 싶어 그게 너무 흥분되어서 앞으로 사용할 계획입니다 미래의 많은 튜토리얼과 코딩 문제, 그리고 교육 내가 할 일

그리고 나는 또한 내가 회사 활주로 자체의 고문입니다 그래서 저는 그 능력에 관여하고 있습니다 괜찮아 런웨이 란? 바로 여기에는 광고 소재에 대한 머신 러닝이 있습니다 인공 지능의 힘을 가져 오십시오 직관적이고 간단한 방법으로 창의적인 프로젝트에 시각적 인 인터페이스

오늘 새로운 제작 방법을 탐색하십시오 이것이 나에게있어 활주로의 핵심입니다 저는 창의적인 코더 인 사람입니다 처리 및 P5JS 작업 중입니다 다른 소프트웨어를 사용하고있을 수 있습니다

그것은 단지 상용 소프트웨어, 코딩 환경입니다 당신은 당신의 자신의 소프트웨어를 작성하고 있습니다 그리고 당신은 최근의 진보를 활용하고 싶습니다 기계 학습에서 이 모델에 대해 읽었습니다 이 모델에 대한이 YouTube 비디오를 보았습니다

당신은 당신의 일에 그것을 사용할 수 있습니까? 글쎄, 활주로 전에 당신이 한 일 중 하나 GitHub 리포지토리로가는 길을 찾으십시오 이 매우 긴 ReadMe를 좋아했습니다 설치 및 구성해야 할 다양한 종속성 그런 다음이 파일을 다운로드하여 설치 한 다음 이 라이브러리를 빌드하십시오 그리고 당신은 정말 오랫동안 거기에 갇힐 수 있습니다 따라서 Runway는 하나의 소프트웨어로 구성됩니다 기본적으로 머신 러닝을 실행하는 인터페이스 당신을위한 모델, 설치 및 구성 다른 일을하지 않아도 Install이라는 버튼을 누릅니다

그리고 그것은 당신에게 그 모델들을 가지고 놀 수있는 인터페이스를 제공합니다 해당 모델을 실험 한 다음 브로드 캐스트 이러한 모델의 결과를 다른 소프트웨어에 적용합니다 그리고 당신은 다양한 방법이 있습니다 HTTP 요청을 통해 방송을 할 수 있습니다 OSC 메시지를 통해 그리고이 모든 것이 말이되지 않을 수도 있습니다 당신에게, 그것은 완전히 괜찮습니다 나는 그들을 통해 찌르고 당신을 보여줄 것입니다 적어도 당신을 보여주기 위해 그들이 어떻게 작동하는지 활주로와 처리 방법 Runway와 P5JS를 페어링하는 방법, 그리고 다른 많은 예제가있는 곳을 보여 드리겠습니다 다른 플랫폼으로 할 수있는 것들과 같은 것들

첫 번째 단계는 여기를 클릭하는 것입니다 런웨이 베타 다운로드에서 자동으로 다운로드를 시작합니다 Mac OS, Windows 또는 Linux 용 실제로 Runway를 이미 다운로드하여 설치했습니다 이 단계를 건너 뛰겠습니다 실제로는 이제 소프트웨어를 실행하십시오 아 이제 런웨이에 오신 것을 환영합니다

시작하려면 로그인하세요 승인 이미 계정이 있다면 당신은 당신의 계정으로 로그인 할 수 있습니다 이미 계정이 있습니다 하지만 저는 새로운 것을 만들려고합니다

과정을 따르십시오 그래서 나는 여기에 갈 것입니다 계정을 만드십시오 이메일 주소를 입력하겠습니다 daniel@thecodingtrain

com에게 아무에게도 말하지 마십시오 그런 다음 사용자 이름과 비밀번호를 만들겠습니다 매우 강력한 비밀번호를 입력 했으므로 다음을 클릭하겠습니다 다니엘 쉬프 먼은 코딩 기차 계정을 만드십시오

아 인증 코드를 제공합니다 daniel@thecodingtraincom으로 계정이 생성되었으며 시작을 클릭 할 수 있습니다 일단 다운로드하고 Runway를 설치하고 가입하면 계정으로 로그인 한 경우 이 화면이 나타납니다 런웨이를 오랫동안 사용했다면 그런 다음 열린 작업 공간을 클릭하여 여기에 올 수 있습니다

작업 공간은 수집 방법이기 때문에 당신이 다른 모델의 무리 특정 프로젝트에 작업 공간으로 사용하고 싶습니다 그러나 우리는 그 어떤 것도하지 않았습니다 제가 가장 먼저 할 일은 모델 찾아보기를 클릭하기 만하면됩니다 그래서 당신이 제안하는 첫 번째 일은 그냥 모델을 클릭하고 무엇을 참조하십시오 Runway 인터페이스 자체에서 게임을 할 수 있습니다 런웨이에서 정말 멋진 것 중 하나가 탐색 할 수있는 소프트웨어 및 인터페이스 모델을 실험하여 작동 방식을 이해하고 그것이 잘하는 것, 잘하지 않는 것, 시작하기 전에 무엇을 하는가 자신의 소프트웨어 나 프로젝트로 가져옵니다

저는이 스페이드 코코 모델을 고를 것입니다 전에 보았다 이것은 매우 합법적입니다 나는 그것을 클릭했을 때 어떤 일이 일어날 지 전혀 모른다 이제 여기에 더 많은 정보가 있습니다 모델에 대해

모델이 무엇을하는지 알 수 있습니까? 스케치와 낙서에서 사실적인 이미지를 생성합니다 모델에 대한 자세한 정보를 찾을 수 있습니다 예를 들어,이 모델을 설명하는 논문입니다 "공간적으로 적응하는 시맨틱 이미지 합성 COCO-Stuff 데이터 세트에 대한 정규화 " 누군가가 물었을 때 이것은 초보자를위한 튜토리얼이라는 것을 기억하십시오 글쎄, 당신이 초보자라는 점에서 초보자를위한 것입니다

여기 와서 놀 수 있습니다 하지만 논문을 찾으려면 아주 깊이 갈 수 있습니다 메모를 읽고 이해 이 모델에 대한 자세한 내용, 모델 작성 방법, 어떤 데이터를 훈련 받았는지 항상 당신이있을 때마다 물어 매우 중요한 질문 기계 학습 모델을 사용합니다 여기에 귀속이있는 것을 볼 수 있습니다 이것이 모델을 훈련시킨 조직입니다 이들은 논문의 저자입니다

크기가 만들어 졌을 때 CPU 및 GPU가 지원되는 경우 갤러리 아래로 갈 수도 있습니다 그리고 우리는 생성 된 일부 이미지 만 볼 수 있습니다 아이디어를 얻을 수 있습니다 이것은 무언가를 테마로 한 모델입니다

이미지 분할이라고합니다 여기에 이미지가 있습니다 이미지 세분화는 무엇을 의미합니까? 이 이미지는 여러 조각으로 나뉘어져 있습니다 다른 세그먼트의 이러한 세그먼트는 색상으로 표시됩니다

보라색 부분, 분홍색 부분이 있습니다 연한 녹색 세그먼트 그리고이 색상들은 모델의 레이블과 연결되어 있습니다 본질적으로, 그것은 일종의 일에 대해 알고 있습니다 그 영역에 그릴 수 있습니다

따라서 이미지 분할을 두 가지 방법으로 수행 할 수 있습니다 내 이미지처럼 기존 이미지를 가져올 수 있습니다 오, 나는 그것을 분류하려고합니다 여기가 내 머리입니다 여기가 내 손입니다

여기가 내 손입니다 또는 정렬별로 이미지를 생성 할 수 있습니다 빈 이미지에 그리기, 여기에 손을 넣어 말하는 여기 머리를 올려 이것이 바로 이미지 분할입니다 적어도 내가 이해하는 방식입니다 내가 지금까지 무엇을 했습니까? Runway를 다운로드했습니다

나는 모델을 찔렀습니다 그리고 방금 하나를 클릭했습니다 이제 그 모델을 사용하고 싶습니다 나는 그것을 가지고 놀고 싶다 나는 그것을보고 싶다

여기 작업 공간에 추가로갑니다 바로 여기에 있습니다 작업 공간에 추가하십시오 이제는 아직 작업 공간이 없습니다 그래서 하나를 만들어야합니다

이 작업 공간을 호출하겠습니다 코딩 기차 라이브 스트림을 말하겠습니다 그래서 저는 그렇게 할 것입니다 Create를 누르겠습니다 이제 작업 공간이 있습니다

보시다시피, 이것은 내 작업 공간입니다 이 작업 공간에 하나의 모델 만 추가했습니다 그리고 지금 당장해야 할 일을 강조하고 있습니다 입력 소스를 선택해야합니다 따라서 모든 기계 학습 모델이 다릅니다

그들 중 일부는 텍스트 입력을 기대합니다 그들 중 일부는 이미지 입력을 기대합니다 그들 중 일부는 입력을 기대할 수 있습니다 스프레드 시트에서 임의의 과학 데이터 그런 다음 모델은 입력을 받아 실행합니다

모델을 통해 출력합니다 그리고 그 출력은 숫자 일 수 있습니다 또는 이미지 일 수도 있습니다 또는 더 많은 텍스트 일 ​​수 있습니다 이제 우리는 사례별로 일종의 공간에 있습니다

그러나 이미지 분할을 올바르게 이해하면 나는 입력과 출력을 확신한다 둘 다 이미지가 될 것입니다 작은 다이어그램을 만들어 봅시다 우리는 이것을 가지고 있습니다 이 모델은 다시 무엇을 불렀습니까? 스페이드 코코 이 머신 러닝 모델이 있습니다

아마도 여기에는 신경망 아키텍처가 있습니다 어쩌면 컨볼 루션 레이어가있을 수도 있습니다 이것은 우리가 그 논문을 읽고 싶을 것입니다 자세한 내용을 알아보십시오 런웨이는 우리가 그것을 즉시 사용할 수있게 해줄 것입니다

그리고 나는 항상 추천합니다 사용 방법에 대해 자세히 알아 보려면 이에 대해 자세히 읽어보십시오 여기 내 가정은 내가 만들고 싶은 소프트웨어에 있습니다 소프트웨어의 그림 조각을 만들고 싶습니다 사용자가 이미지를 분할 할 수 있습니다 아마 당신은 내가 일종의 추첨을 할 것이라고 상상할 수 있습니다 한 가지 색입니다 다른 색의 마커를 사용할 수 있습니다

이 이미지를 무리로 채울 것입니다 다른 색상 그런 다음 모델에이를 공급할 것입니다 그리고 밖으로 이미지가 올 것이다 우리는 입력했습니다

그리고 우리는 출력했습니다 그리고 다시, 이것은 모든 모델마다 다를 것입니다 활주로에서 선택할 수 있습니다 그럼에도 불구하고 많은 규칙이 있습니다 많은 모델들이 이미지를 기대합니다 입력 및 출력 이미지로 그들 중 일부는 텍스트를 입력으로 기대하고 이미지를 출력합니다

또는 입력 및 출력 텍스트로 이미지 등등 그리고 등등 그리고 지금하고 싶은 것은 입력 소스를 선택하는 것입니다 모델의 활주로에서 세그먼트 화 된 이미지를 생성 할 것입니다

그래서 그것은 파일에서 올 수 있습니다 실제로 네트워크 연결에서 올 수 있습니다 앞으로의 비디오에 들어가서 또는 스스로 탐색 할 수 있습니다 난 그냥 세분화를 선택합니다 알아

이것은 가장 위대한 것입니다 방금 일어난 일은 이미지 분할입니다 머신 러닝 모델의 일반적인 기능입니다 활주로에 전체 드로잉 엔진이 내장되어 있으므로 이미지 세분화로 놀 수 있습니다 보시다시피, 이것은 다른 라벨의 색상입니다 많은 교통 수단 인 것 같습니다

어쩌면 내가 원하는 것은 시도하자 사람들을 그려 봅시다 [음악 재생] 비행기와 와인 글라스 비행 오버 헤드와 두 사람 승인 일은 잘되고 있니? 이제 출력을 선택하겠습니다 그리고 나는 단지 미리보기를 원합니다

권리? 미리보기는 지금 내 보내지 않아도됩니다 다른 곳에서는 사용할 필요가 없습니다 난 그냥 Runway 자체에서 놀고 싶습니다 미리보기를하겠습니다 이제 입력을 선택했습니다

세그먼트입니다 활주로 자체의 인터페이스 출력을 선택했습니다 미리보기입니다 이제 모델을 실행할 차례입니다

우리가 간다 원격으로 실행하십시오 따라서 원격 GPU가 활성화되었습니다 가입 만하면 볼 수 있습니다 Runway의 경우 원격 GPU 크레딧 10 달러 한 번만 얼마나 실행하는지 보는 것이 재미있을 것입니다 실제로 사용합니다

한 가지만 말씀 드리겠습니다 추가 크레딧을 받고 싶은데 여기로 갈 수 있습니다 이것은 내 프로필의 일종의 아이콘과 같습니다 클릭 할 수 있습니다 이제 여기로갑니다

더 많은 크레딧 받기로갑니다 그리고 이것은 나를 브라우저 페이지로 데려 갈 것입니다 그리고 더 많은 크레딧을 지불 할 수있었습니다 하지만 여기를 클릭하겠습니다 CODINGTRAIN을 말하여 크레딧을 사용하겠습니다

바로 여기에 따라서 10 달러의 크레딧을 추가로 받으려면 당신은 이것을 할 수 있습니다 그리고 우리는 지금 20 달러의 크레딧이 있어야한다는 것을 알 수 있습니다 여기이 아이콘이 표시되어 있습니다 여기이 아이콘은 작업 공간입니다

그 중 하나의 모델로 하나만 가지고 있습니다 원격 GPU에 연결되어 있습니다 다른 모델을보고 싶다면 이 아이콘으로갑니다 괜찮아 이제 원격 실행을 누르겠습니다

[드럼 롤] 모델을 원격으로 실행 우와! [TA-DA] 어머 아 너무 예뻐요 무아 믿을 수 없어 이것이 바로 스페이드 코코 머신 러닝입니다 모델 생성

여기서 결과를 보는 것은 정말 흥미 롭습니다 그래서 당신은 생각할 수, 아무것도 몰라 이 모델에 대해, 작동 방식과 기대하는 것, 당신은 그것으로 꽤 이상한 결과를 얻을 수 있습니다 아마도 내가 좀 더 사려 깊다면 아마도 전체 공간을 가득 채우고 아마 너무 많이 비워두고 또한 두 사람과 함께 거대한 와인 잔을 포함 시켰습니다 좀 소름 끼치 네요 비록 이런 종류의 저와 비슷하다고 생각합니다 이상한 방식으로 그리고 우리는 여기서 볼 수 있습니다

이것 좀봐 $ 005 제가 언급해야 할 것은 이유입니다 왜 오랜 시간이 걸 렸어요 서버와 실제로 시작할 모든 것 모델을 실행합니다 하지만 이제 실시간으로 실행되므로 훨씬 빨리 일어날 수 있습니다 작성해 봅시다

그렇다면 그것을 채우는 것이 좋은 것입니까? 바닥재를 사용해 봅시다 나무 바닥으로 채우도록하겠습니다 오 우와 그런 다음 과일을 넣으십시오 아 이것은 지금 훨씬 나아 보입니다 옆에 오렌지를 넣자

오렌지 몇 개를 넣고 작은 과일 그릇을 만들어 봅시다 와우 이건 미친 짓이야 와우 나는 멈춰야했다 꽤 놀랍습니다

다시 한 번, 여기 잠시 후 방법에 대해 조금 더 생각하는 이 모델은 실제로 작동합니다 그리고 잘 알려진 데이터 세트를 살펴보면 코코 이미지 데이터 세트가 아마 나에게 더 많은 정보를 줄거야 그것이 잘 될 일에 대해 생각합니다 그러나 당신은 그것이 어떻게 볼 수 있는지 볼 수 있습니다 여기 나무 배경에 과일의 작은 더미 거의 천처럼 보입니다

마치 테이블 위에 앉아있는 것처럼 말입니다 매우 현실적입니다 그리고 그렇습니다 찰리 잉글랜드는 지적합니다 이것은 GPU 크레딧을 계속 사용하고 있습니다

그래도 여전히 볼 수 있습니다 라이브 페인팅을 많이해도 방금 $ 010을 사용했습니다 무료 $ 10로 많은 것을 할 수 있습니다 그냥 놀면서

현명하게 입력하면, 여기에서 분할을 선택했습니다 그러나 파일을 사용할 수도 있습니다 컴퓨터에서 파일을 열려면 나는 그렇게 할 수 있었다 그런 다음 내보내기로 변경하면 출력 나는 또한 실제로 그것을 내보낼 수 있습니다 다양한 형식으로 하지만 물론 여기서도 바로 미리보기에서이 다운로드 저장 버튼을 클릭 할 수 있습니다

이제이 특정 이미지를 영원히 더 많이 저장하고 있습니다 파일로 자, 여기서 실제로 중요한 것은 여기서 더 중요한 것은 네트워크 아래입니다 네트워크에서 여기를 클릭하고 싶었다면 이것은 이제이 특정 기계와 통신 할 수 있다는 것을 의미합니다 내 소프트웨어에서 학습 모델 내가 다운로드했거나 구매 한 소프트웨어인지 여부 다른 사람이 말한 것을 이러한 특정 프로토콜 중 하나 또는 내가 쓰고있는 자체 소프트웨어 거의 모든 프로그래밍 언어 또는 환경 프레임 워크, 모듈 또는 라이브러리가있는 경우 또는 이러한 유형의 프로토콜을 지원하십시오 여기 JavaScript의 좋은 점 중 하나는 JavaScript를 클릭하면 실제로 여기에 약간의 코드가 있음을 알 수 있습니다

실제로 자바 스크립트에 복사 / 붙여 넣기 만하면됩니다 직접 다시 올게요 OSC는 또한 매우 인기있는 메시징 네트워크 프로토콜입니다 창조적 인 코더를 위해 Open Sound Control의 약자이며 응용 프로그램간에 데이터를 보내야합니다

별도의 동영상으로 다시 돌아오겠습니다 이 중 일부가 어떻게 작동하는지 보여줍니다 또한 귀하의 Runway 소프트웨어에 대해서도 언급해야합니다 자체는 소프트웨어와 매우 유사한 방식으로 작동합니다 익숙한 Wekinator라고합니다 Wekinator는 Rebecca Fiebrink가 만든 소프트웨어입니다 몇 년 전에 OSC 메시징을 통해 데이터가 전송되는 신경망 그리고 사실 후에 그 결과를 얻습니다 비록 여기서 중요한 차이점은 런웨이라고 생각합니다

정말 큰 보물을 지원하도록 설정되어 있습니다 사전 훈련 된 모델 Wekinator는 신경망 교육에 더 많은 반면 작은 비트의 데이터로 즉석에서 런웨이가 계획하고있는 것 중 하나는 아마 9 월에 나올 것입니다 자신의 모델을 훈련시키는 기능도 있습니다 이번 런웨이 소개를 시청 해 주셔서 감사합니다 다운로드 및 설치의 기본 사항 소프트웨어, 높은 수준의 관점에서 볼 때 인터페이스 작업의 특징, 무료 클라우드를 얻는 방법 크레딧 그리고 내가 당신에게 제안하는 것은 이 비디오가 다운로드 된 후 소프트웨어를 실행 한 후 이 모델 찾아보기 페이지로 이동하십시오

보시다시피, 다양한 모델이 있습니다 모션, 생성, 커뮤니티, 텍스트, 인식 여기를 클릭하십시오 이 인식을 시도해 봅시다 얼굴 인식 조밀 한 캡

여기 PoseNet은 어디에 있습니까? 동작이 어려울 수 있습니까? DensePose PoseNet 여기 PoseNet이라는 모델이 있습니다 한 명 이상의 사람에 대한 실시간 골격 추적을 수행합니다 이 모델을 다른 라이브러리에서 다루었습니다 TensorFlow JS가있는 ML5 JS 라이브러리와 같습니다

다음 비디오에서하려고하는 것은 내 웹캠으로 Runway에서이 모델 PoseNet을 사용하고 있습니까? 이 컴퓨터에서 로컬로 실행 클라우드 크레딧을 요구하지 않고 이 모델의 결과를 [? 처리?] 자체 전체 워크 플로우를 보여 드리겠습니다 그러나 찌르십시오 주위를 클릭하십시오 원하는 모델을 찾으십시오

의견에 대해 알려주십시오 당신이 만든 이미지를 공유하십시오 그리고 난 당신이 활주로로 무엇을보고 기대합니다 큰 시청 해 주셔서 감사합니다

[음악 재생]

Crowdsource by Google: Building better products for everyone with machine learning

머신 러닝에 대해 들어 봤지만 무엇입니까? "기계 학습"은 컴퓨터가 몇 가지 예를보고 기술을 습득 할 수있게하는 기술입니다 규칙 세트 대신에

기계 학습을 통해 일상적인 작업을보다 쉽게 ​​수행 할 수 있습니다 좋아하는 사진 검색, 어떤 언어로든 사람과 대화하고 전 세계 어디든 가고 싶은 곳으로 정확하게 이동할 수 있습니다 기계는 어떻게 배우나요? 기계 학습에서 컴퓨터는 일련의 데이터를 통해 공통 패턴을 찾고 식별하고 학습합니다 예를 들어 컴퓨터에 많은 자동차 이미지를 보여 주면 어떤 그림에서든 자동차를 인식하는 방법을 배울 수 있습니다 우리가 보여주는 다양한 자동차 이미지는 더 잘 인식됩니다

따라서 Crowdsource 앱에 대한 귀하의 기여가 중요합니다 컴퓨터가 배울 수있는 정확한 예를 만들고 확인하는 데 도움이됩니다 이는 모든 사람에게 혜택을 줄 수있는 기능을 활성화합니다 이미지 레이블을 확인하면 Google 포토 및 Google 렌즈와 같은 앱이 사진을 분류하고 물체를 식별하는 데 도움이됩니다 문장의 정서에 라벨을 붙이면 Google지도 및 Google Play에서 사용자 언어로 리뷰를 구성하는 데 도움이됩니다

번역을 확인하면 Google Translate가 귀하의 언어로보다 정확한 번역을하도록 도와줍니다 덕분에 좋아하는 앱이 모두에게 도움이됩니다 전 세계 크라우드 소싱 커뮤니티의 일환으로 귀하의 국가 및 전 세계의 기고자들과 함께 수백만의 사례를 제공하고 있습니다 귀하의 답변은 수천 명의 다른 사용자의 답변과 결합되어“최상의”답변을 결정합니다이를“지상 진실”이라고합니다

실제 기술은 특정 기술을 습득 할 수있는 패턴을 찾는 기계 학습 모델에 적용됩니다 사진에서 자동차를 식별하는 방법 또는 한 언어에서 다른 언어로 번역하는 방법 등이 있습니다 기계가 배우는 것은 주어진 데이터에 의해 제한됩니다 세계의 작은 지역에서 온 이미지로 이미지 인식 알고리즘을 개발하면 세계의 해당 부분에서만 객체를 인식합니다 사진과 같은 앱이 모든 사람에게 잘 작동하려면 세계 각지의 이미지를 사용하여 기계를 훈련시켜야합니다

Crowdsource를 사용하면 교육 데이터에서 지역, 언어 및 의견을 나타냅니다 커뮤니티에 참여해 주셔서 감사합니다!

[CVPR 2019] AD-PSGD Algorithm for Deep Learning, Prof. Ji Liu, Director @ Kuaishou Seattle AI Lab

중국에서 35 세 미만의 MIT 혁신 자 중 하나 인 비동기 분산 형 병렬 확률 적 경사 구배 알고리즘 (AD-PSGD) 이 알고리즘의 기여는 무엇입니까? 네

비동기 및 분권화는 매우 중요하고 강력한 도구입니다 깊은 학습의 훈련 과정 이 두 가지 새로운 기술은 실제로 동기화 오버 헤드를 줄입니다 그것을하는 전통적인 방법을 끊습니다 그리고이 두 기술은 현재 TensorFlow 및 PyTorch와 같은 널리 사용되는 서버에서 널리 사용되었습니다

그리고 우리는 이런 종류의 것들이 전통적인 최적화 사람과 구현 사람들 사실,이 두 집단의 사람들 사이에는 큰 격차가 있습니다 최적화 사람들 알고리즘을 이해할 수 있지만, 하드웨어에 대한 지식은 매우 제한적입니다 구현이므로 알고리즘을 설계 할 때 구현에서 거의 고려하지 않습니다 원근법

그러나 사람들을 구현하는 사람들은 코드를 하드웨어로 프로그래밍합니다 운수 나쁘게, 알고리즘 측면에 대한 지식은 매우 제한적입니다 그래서 이것은 차이입니다 그리고 내 일 이 격차를 메우고 공동 최적화를 시도하고, 알고리즘과 하드웨어를 사용하여 성능을 최적화하고 교육 프로세스를 최적화합니다 이것이 주요 기여입니다

이 작품의 목적