Free Online Python Machine Learning Course – Casting integers and floating point numbers

안녕하세요 친구들, 이것은 TKD입니다 15 년의 컴퓨터 프로그래밍 경험이 있습니다 그리고 오늘은 파이썬 머신 러닝 채널의 일부입니다 한 유형에서 다른 유형으로 여러 유형의 데이터를 캐스트하는 방법에 대해 학습합니다

오늘 토론 주제는 정수와 부동 소수점을 캐스팅하는 것입니다 깨끗한 노트북부터 시작하겠습니다 새로운 Python 3을 클릭하십시오 1 단계 깨끗한 노트로 시작하십시오 우리는 이제 1 단계로 끝났습니다 2 단계는 노트북이 깨끗해지면 2 단계에서 무엇을합니까? 아래 드롭 다운으로 이동합니다 아래에서 레벨 선택 모드를 볼 수 있듯이 변환을 입력합니다 플로팅 첫 번째 세포로 그런 다음 런을 입력합니다 보시다시피 텍스트 아래에 새로운 셀이 나타납니다 텍스트 에서 Jupiter 노트북의 텍스트는 마크 다운 언어라고하는 것으로 HTML과 매우 유사합니다

이제 다음 셀이 나타나면이 코드를 작성하기 위해 아래에 작성하십시오 10과 같음 플로트, 나 실행 버튼을 누르십시오 여기 당신이 한 일이 있습니다 당신은 내가 10이라고 말했고 우리의 예에서 I는 당신이 I 변수에 float 메소드를 사용하는 변수입니다 출력은 100은 부동 숫자입니다 중요 사항 마크 다운을 사용하면 노트북을 문서화하여 함수가 매개 변수를 사용하고 값을 반환 우리의 방법은 특정 유형의 기능 단계 4입니다 따라서 실행 버튼을 누른 후 위의 셀을 실행하면 다른 셀이 나타납니다 이제 만들겠습니다

더 많은 문서를 만들거나 이제 다른 마크 다운을 입력하겠습니다 변환 int로 부동 드롭 다운의 선택 표시에서 스마트 다운을 선택하고 실행 버튼 또는 실행 버튼을 누르십시오 따라서 5 단계는 아래 코드를 다음 셀에 입력하고 실행 버튼을 누르십시오 F는 14 포인트 6 6과 int 에프 이제 Run 버튼을 클릭 해 보겠습니다 그래서 여기 당신이 한 일이 있습니다

F라는 변수를 만들었습니다 F라는 변수를 부동 소수점 숫자로 설정 하시겠습니까? 열네 포인트 여섯 여섯 그런 다음 int라는이 함수를 사용하여 F를 정수로 변환했습니다 주목해야한다 이 함수를 사용할 때 파이썬은 반올림하지 않습니다 소수점보다 먼저 모든 것을 가져 와서 제거했습니다 축하합니다

float로 변환하고 float로 끝났습니다 따라서 내 채널을 구독하여 더 많은 업데이트를 받고 계속 지켜봐야합니다

Reddit, Machine Learning, and Understanding Mental Health

나는 이전에 TA와의 TA를 알고 있었고 그가 이것을 공유한다는 것을 알았습니다 컴퓨터 과학을 정신 건강 영역에 적용하려는 열정

Julia와 저는 Ellie Pavlick 교수와 데이터 과학을 전공했습니다 그녀는 정말 대단 했어 교수님과 우리는 자연어 처리 과제에 관심이있었습니다 자연어 처리는 컴퓨터 과학의 하위 집합입니다 사람들이하는 말을보고 그것을 어떻게 번역 할 수 있는지 이해하려고 노력 기계가 이해할 수있는 것 우리는 우울 / 자살 언어의 마커를 이해하려고 노력했습니다 그래서 우리는 소셜에 대한 특정 제출 및 게시물을 조사했습니다

Reddit 및 Twitter와 같은 미디어 이 특정 마커를 이해하고 싶었습니다 절대주의라고 불리는 우울증 절대주의 언어의 예는 다음과 같습니다 '나는 이것을 제대로 할 수 없다'또는 '오늘은 최악의 날이었다' 덜 절대적인 버전은 다음과 같습니다

'오늘은 나쁜 날이다' 그러나 차이점은 컴퓨터를 잡기가 어렵습니다 이것이 정말 어려운 프로젝트입니다 브라운에서 가르치는 것은 놀랍습니다 학생들은이 놀라운 것을 가지고옵니다 그 수준의 지식과 매우 깊은 고급 수준으로 넘어갈 수 있습니다

아주 빨리 토론 우리가하려고하는 것은 절대주의 언어를 식별하는 모델 우리가 지금 개발하고있는 도구는 본질적으로 어떤 유형의 문장이나 문구를 볼 수있는 기계 학습 도구 또는 트윗을 통해 바이너리 판독 값을 얻으려면 절대 주의자이거나 그렇지 않습니다 컴퓨터 과학에 적용되는 경우 실제 응용 프로그램은 많은 사람들에게 막대한 영향을 미칩니다 소셜 미디어는 사람의 말을 이해하고 그들이 대화 할 때 반드시 앞으로 나아갈 필요는 없다고 생각 그들의 정신 건강 제공자

우리가 도구를 사용하여 이 렌즈를 통해 일상 생활을 이해하고 진단 할 수 있기를 바랍니다 정신 건강이 더 빨라지고 빠릅니다

Executing SAS Code in SAS Visual Data Mining and Machine Learning Pipelines

안녕하세요, 저는 SAS의 Wendy Czika입니다 SAS Visual Data Mining and Machine에서 SAS Code 노드 사용 Model Studio 애플리케이션의 일부인 파이프 라인 학습 SAS Visual Data Mining and Machine Learning 파이프 라인 사용하기 쉬운 대화식 환경 제공 복잡한 기계 학습 모델을 구축 할뿐만 아니라 또한 프로세스를 시각화 재사용 가능한 파이프 라인을 만듭니다

이 환경은 여러면에서 비슷합니다 SAS Enterprise Miner에게 그 점에 익숙하지만 SAS 플랫폼을 현대화하는 SAS Viya에 살고 있습니다 이 파이프 라인에서 순차적 단계는 결 측값 대치, 선택 등 수행 사용할 중요한 변수와 여러 후보 앙상블 모델을 포함한 예측 모델 마지막 단계는 모든 모델을 비교하는 것입니다 이 파이프 라인에서이 데이터의 챔피언을 결정하십시오 파이프 라인 내의 각 노드에는 해당 세트가 있습니다 개인의 필요에 맞게 조정할 수있는 속성 여기에서 Forest 노드와 관련된 속성을 볼 수 있습니다 오른쪽 패널에서 또한 왼쪽의 패널을 확장하면 매우 포괄적 인 노드 모음이 있습니다

SAS Visual Data Mining & Machine learning 내에서 사용 가능 제품 – 데이터 전처리,지도 학습, 그리고 더 엄청난 금액이 있지만 손끝에서 사용할 수있는 기능 이 노드 모음과 수많은 노드를 통해 각 노드 내의 속성에 따라 모델 빌딩에 기능을 추가하려고 정의 된 노드에서 다루지 않는 프로세스 제품에서 SAS Visual Data Mining 내에서 파이프 라인을 확장하는 방법 & Machine Learning에서이 사용자 정의 코드를 포함 하시겠습니까? 물론 SAS 코드 노드! 스크린 샷에서 볼 수 있듯이 SAS Code 노드는 Miscellaneous 그룹화에서 사용할 수 있습니다 왼쪽에 노드의 즉, 어디서나 드래그 앤 드롭 할 수 있습니다 파이프 라인 내에서

다른 Model Studio 노드와 마찬가지로 SAS 코드 노드에는 이와 관련된 속성이 있습니다 오른쪽에서 볼 수 있듯이 몇 가지 세부 사항을 신속하게 지적하겠습니다 코딩 환경 자체의 클릭하면 가져 오는 편집기입니다 코드 노드의 속성 시트에서 "열기" 왼쪽에는 매크로와 매크로가 있습니다 변수는 범주별로 그룹화되어 정의됩니다 생산성 향상에도 도움이됩니다

일반화 가능성에서와 같이 여기에 두 개의 창이 있습니다 하나는 훈련 코드 용입니다 하나는 코드를 점수 매기기위한 것입니다 예제를 보여줄 때 편집기에는 구문 색상 표시 및 자동 완성 기능이 포함되어 있습니다

"Proc Prin"을 입력하면 다음과 같이 표시됩니다 당신은 또한 능력이 있습니다 기존 코드를 열려면 파일, 복사 / 붙여 넣기 등에 저장했습니다 모든 SAS 코딩 환경에서 볼 수 있듯이 이제 세 가지 방법에 대해 이야기하겠습니다 일반적으로 SAS Code 노드를 전처리 노드로 사용합니다 새로운 변수를 생성하거나 메타 데이터를 수정합니다 감독 학습 노드로서의 변수 예측 모델 또는 데이터 요약과 같은 작업 시각화

첫 번째 사용 사례는 SAS 코드를 사용하여 강조 모델 구축 전에 데이터를 전처리하기위한 노드 기능 엔지니어링을위한 작업에서 무엇이든 가능합니다 데이터 필터링 또는 하위 설정 이외의 다른 변수에 대한 메타 데이터를 변경할 수도 있습니다 당신의 목표 – 이것의 예는 변수의 변경을 포함합니다 역할, 측정 수준, 대치 방법 등 Model Studio의 데이터 탭에서이 작업을 수행 할 수 있습니다 또는 변수 관리 노드에 있지만 기능이 필요할 수 있습니다

프로그래밍 방식으로 변경하십시오 SAS에서 SAS 코드 노드 사용에 익숙한 경우 Enterprise Miner, 중요한 정보를 알아야합니다 차이 Enterprise Miner의 작동 방식과 달리 데이터 사본은 각 노드에 대해 순서대로 저장되지 않습니다 필요한 공간을 줄입니다 즉, 교육 데이터를 직접 수정할 수 없습니다 변수 값을 변경하거나 관측 값을 삭제하여 파이프 라인에서 사용중인 데이터 SAS Visual Data Mining 및 Machine Learning 내 스코어링 코드를 통해 새 변수를 작성해야만 수정할 수 있습니다

나중에 나는 당신이 어떻게 하는지를 보여줄 것입니다 이제 SAS 코드를 사용하는 방법을 살펴 보겠습니다 지도 학습을위한 노드 유연성을 추가하는 데 가장 도움이됩니다 추가적인지도 학습 알고리즘 또는 옵션을 가져 오기 위해 표시되지 않을 수있는 프로세스 흐름으로 기존 노드에서 이 사용 사례에 대해 언급하고 싶은 몇 가지 팁이 있습니다 먼저 SAS 코드 노드에 올바르게 플래그를 지정해야합니다 지도 학습 노드로 이를 위해서는 파이프 라인에 노드를 추가 한 후 그것을 클릭하고 이동을 선택하십시오

지도 학습을 선택할 수 있습니다 일단 거기로 옮기면 치료됩니다 지도 학습 노드로 이것은 코드를 설정하면 계산을위한 스코어링 코드 생성 DATA 단계 (또는 DS1)로서의 예측 스코어링 코드 또는 분석 저장소 제공된 매크로 변수를 사용하여 그런 다음 모델 평가 자동으로 수행되며 모델 모델 비교에 포함됩니다 파이프 라인의 다른 모델과 함께 둘째, 동일한 옵션이 있습니다 다른 Supervised와 마찬가지로 SAS 코드 노드 모델을 배포 학습 모델 마지막으로 모델 해석 가능성 속성 켤 수있게됩니다 모델을 설명하는 데 도움이되는 다양한 방법을 수행 -어떤 변수가 중요한지 그들이 어떻게 전세계 수준에서 예측에 영향을 미치는지 또는 개인 또는 클러스터를보고 로컬로

마지막으로 세 번째 사용 사례는 데이터 요약을 위해 SAS 코드 노드 사용 시각화 선호하는 SAS 절차를 사용하여 ODS 출력을 생성 할 수 있습니다 또는 dmcas_report 매크로를 사용하여 자신 만의 플롯을 만들 수 있습니다 파이프 라인의 데이터 이 매크로를 사용하면 맞춤형 보고서를 만들 수 있습니다 막대 차트, 계열 도표, 파이와 같은 결과 차트, 산점도 및 테이블 이 경우 SAS 코드 노드는 일반적으로 터미널입니다 스코어링 코드를 생성하지 않으므로 파이프 라인의 노드 또는 메타 데이터 변경 자,이 모든 용도의 예를 살펴 보겠습니다 Model Studio의 파이프 라인 사례 SAS Visual Data Mining 및 Machine Learning의 응용 프로그램

전처리를 포함하는 것으로 시작하겠습니다 예 여기를 클릭하여 코드 편집기를 열 수 있습니다 노드에서 열기를 선택하거나 속성 패널에서 앞서 언급했듯이 하나의 일반적인 전처리 작업 SAS 코드 노드에서 수행 할 수있는 관측의 일부를 배제 훈련 데이터 또는 필터링에서 간단한 몇 줄의 코드로이 작업을 수행 할 수 있습니다 다음은 모두 제외하려는 필터링의 예입니다 "Sales"또는 "Self"이외의 변수 JOB 값 내 훈련 데이터

앞에서 언급했듯이 원하는 데이터 수정 후속 노드로 전달하려면 스코어링 코드 내에서 수행해야합니다 데이터를 직접 수정할 수 없습니다 여기에 다음과 같은 모습이 있습니다 데이터의 하위 집합을 원합니다 여기에 표시되는 두 개의 창은 최신 릴리스의 새로운 기능입니다

SAS 비주얼 데이터 마이닝 및 머신 러닝 84 이것은 어떤 것을 입력하는 것이 매우 간단합니다 스코어링 편집기에서 직접 스코어링 코드 그래서 실제로 볼 수있는 곳에서 시작하겠습니다 이 필터 플래그를 작성하기위한 스코어링 코드 0 변수 JOB의이 두 값에 대해서는 그렇지 않으면 1입니다 교육 코드 창에서 통화를 포함 시켰습니다 dmcas_metachange 매크로에 이 매크로는 새로운 filter_flag 변수의 역할을 설정합니다 우리는 방금 필터로 만들었습니다 그리고 해당 레벨의 BINARY

모든 후속 노드에이 변수를 사용하도록 지시합니다 필터링 정의로 이 코드 노드 다음에 오는 모든 노드는 자동으로 선택됩니다 이 필터 및 JOB 값이 다른 관측치 SALES 또는 SELF보다 교육에서 제외됩니다 데이터 이것은 전처리의 한 예일뿐입니다

내가 언급했듯이 여기에서 새로운 기능을 엔지니어링 할 수 있습니다 프로그래밍 방식으로 변경되는 다른 입력의 함수입니다 메타 데이터 – 예를 들어 GitHub 리포지토리에는 코드가 있습니다 입력의 왜도를 계산하기 위해 그런 다음 왜도> 3의 변형 설정 후속 변환에 적용될 로그에 마디 다음으로지도 학습 예제를 살펴 보겠습니다

앞에서 언급했듯이 SAS 코드 노드를 사용하려면 지도 학습 노드로 클릭하면 이동을 선택하십시오 이동 한이 SAS 코드 노드를 볼 수 있습니다 모델 해석에 대한 사후 훈련 속성 이제 선택할 수있게되었습니다 이 예에서는 간단하게 실행 중입니다 gradboost 프로 시저를 사용한 그라디언트 부스팅 모델 이것은 그라디언트가 있기 때문에 설명을위한 것입니다

부스팅 노드가 이미 있습니다 여기에서 & dm_Data 매크로를 사용하고 있음을 알 수 있습니다 프로젝트 데이터뿐만 아니라 다수를 참조하는 변수 proc에 내장 된 매크로 중 gradboost 전화 예를 들어 % dm_class_input, % dm_dec_target, % dm_interval_input 이렇게하면 코드가 훨씬 단순해질뿐만 아니라 또한 일반화 가능한 코드를 작성합니다 데이터, 변수 이름 또는 파일 이름이 보이지 않습니다 여기에 하드 코딩되었습니다

이 SAS 코드 노드를 Exchange에 저장하려면 Model Studio 내의 다른 프로젝트에서 완전히 다른 데이터라면 쉽게 할 수 있습니다 24 행에는 매크로 변수가 있습니다 파티션 문에 대해 자동으로 파티션 변수의 값을 나타냅니다 검증 및 테스트 관찰을 정의합니다 이 예에서 29 행을 계속합시다 여기에 SAVESTATE 문이 포함되어 있습니다 proc gradboost에서 분석 저장소 점수를 요청 파일이 생성됩니다

dm_data_rstore 매크로 변수를 전달합니다 이 스코어링 파일은 적절한 위치에 저장됩니다 데이터 단계 스코어링 코드를 작성하는 프로 시저의 경우 대신 CODE 문을 사용하십시오 dm_file_scorecode와 함께 여기 주석에 표시된 것처럼 매크로 변수 이 특정 절차의 경우 실제로 점수 코드를 생성하기 위해 두 가지 방법을 사용할 수 있지만 그래디언트 부스팅 머신의 스코어링 코드 이후 이 경우 꽤 길어질 수 있습니다 분석 저장소를 사용하는 것이 좋습니다 이는 스코어링 코드의 이진 표현입니다

proc gradboost 호출 후 여기에 지정된 두 개의 dmcas_report 매크로를 볼 수 있습니다 일부 보고서를 결과에 추가합니다 둘 다 생성 된 VarImp ODS 테이블을 사용하는 것을 볼 수 있습니다 proc gradboost에서 첫 번째 dmcas_report 호출 요청 테이블이 표시되고 두 번째는 막대 차트를 요청합니다 상대적 중요성의

우리는 이것을지도 학습 노드로 표시했기 때문에 평가 테이블 및 플롯도 자동으로 표시됩니다 결과에서 결과를 열어보기 전에 모든 것을 볼 수 있습니다 PD 플롯을 확인했음을 보여 드리고자합니다 모델 해석 그룹의 확인란 속성 이것은 부분 종속성 플롯을 요청합니다

그래디언트 부스팅 모델을 설명하는 데 도움이됩니다 결과를 살펴 보겠습니다 결과에서 SAS 코드를 볼 수 있습니다 제출 한 다음 요청 된 두 개의 보고서 dmcas_report 매크로 사용 – 변수 테이블 친척을 나타내는 중요성과 막대 차트 내림차순으로 중요합니다 평가 탭을 클릭하고 적합 통계를 볼 수 있습니다 예측 보고서 – 여기에 목표 간격이 있습니다

하지만 바이너리 타겟이 있다면 리프트와 같은 것을 볼 수 있습니다 차트 및 ROC 유형 도표 마지막으로 모델이 있음을 알 수 있습니다 해당 속성 중 하나가 바뀌 었으므로 해석 가능성 탭 의 위에 여기서 가장 중요한 5 가지 변수를 볼 수 있습니다 그들의 가치는 우리의 목표에 대한 예측에 영향을 미칩니다 자연어 생성 텍스트와 함께 줄거리를 설명합니다 다시 한번, 평가와 모델을 모두 얻을 수 있습니다 긴 모델에 대한 해석 성 데이터 단계 또는 분석 상점 점수 코드로 열을 생성하기 위해 생성됩니다 또는 예측 열

마지막 예제는 SAS Code입니다 전처리 노드 이후 또는 관리 대상 노드 학습 노드를 생성하여 데이터를 시각화하거나 탐색 맞춤 보고서 코드를 보자 다음은 두 가지 작업을 수행하는 간단한 데이터 단계입니다 먼저, 노드로 전달되는 데이터의 서브 세트를 가져옵니다

– 이들은 수백만을 가질 수있는 프로젝트 데이터입니다 산란에서 읽기 어려운 관측치 우리는 200의 부분 집합을 취합니다 둘째, 목표로 남은 변수 그래디언트 부스팅 모델에서 예측을 뺀 값입니다 그런 다음 dmcas_report 매크로를 사용하여 산점도를 만듭니다 0에서 y 참조 선과 함께 예측으로 잔차를 시각화하는 데 도움이됩니다 결과는 다음과 같습니다

잔차가 무작위로 보이는 것처럼 보입니다 기준선 주위에 분포하고 어떤 종류도 전시하지 않음 패턴의 – 그래서 그것은 단지 좋은 빠른 확인입니다 한 종류의 시각화의 예로서 잔차의 당신은 할 수 있습니다 여기서 유용한 링크로 끝내고 싶습니다 특히 Git Hub 리포지토리에 여러 SAS 코드 노드가있는“sas-viya-dmml-pipelines” 예제를 계속 추가하십시오 감사합니다!

Machine Learning and Its Applications | Intellipaat

Google지도가 어떻게 트래픽을 정확하게 예측하는지 궁금해 한 적이 있습니까? 좋아하는 쇼핑 사이트 아마존은 당신에게 제품을 추천합니다 자동차가 작동합니다

그렇다면 하루의 올바른 장소에 착륙 한 것입니다 얘들 아, Intellipaat의 오늘 세션에 오신 것을 환영합니다 오늘의 세션에서 톱 10 머신 러닝 응용 프로그램과 그 작동 방식에 대해 설명합니다 에서 세션이 끝나면 짧은 퀴즈가 나옵니다 받아 넣어주세요 의견 섹션에 귀하의 답변이 올바른지 알 수 있습니다

시작하기 전에 즉시 확인하려면 Intellipaat의 YouTube 채널을 구독하십시오 다가오는 비디오에 대한 알림 당신도 스스로를 마스터하고 싶다면 머신 러닝 알고리즘 및 응용 프로그램의 개념에 대해 Intellipaat의 기계 학습 과정을 확인하십시오 같은 정보는 아래 설명에 있습니다 그러기 전에 코스를 시작합시다 그래서, 10 번부터는 Google지도 교통 예측입니다

글쎄, 구글지도는 교통 예측에 매우 정확하지만 어떻게 구글지도 트래픽을 예측합니까?이 정보를 어떻게 얻습니까? 글쎄, 당신이 있다면 Google지도가 열려 있고 서비스가 활성화 된 Android 휴대 전화 또는 iPhone 휴대 전화 나 앱이 익명으로 실시간 데이터를 Google에 다시 보냅니다 그만큼 회사는이 정보 또는 데이터를 사용하여 차량 수를 계산합니다 도로에 또는 그들이 얼마나 빨리 움직이는 지 따라서 더 많은 사람들이 앱을 사용 트래픽 데이터가 더 정확함을 나타냅니다 구글은 또한 통합했다 Waze라는 앱의 트래픽 데이터 회사는 10 억 달러에 샀다 응용 프로그램은 지역 부서의 트래픽 보고서를 모니터링 교통

구글은 심지어 특정 교통 패턴의 역사를 유지합니다 특정 시간에 트래픽이 무엇인지 예측할 수 있도록 특정 장소 트래픽이 이동 한 경우 앱에서 더 빠르게 제안합니다 목적지에 도달 할 수 있도록 경로를 설정하여 앱 Google이 모든 움직임을 모니터링하고 추적하는 느낌이 든다면, 걱정하지 마세요 언제든지 기기를 끄면 언제든지 선택 해제 할 수 있습니다 위치 서비스

그러나 모든 사람이 그렇게했다면 어떻게해야합니까? 글쎄, 우리는 곤경에 처했을 것입니다 데이터와 결과가 정확하지 않을 수 있습니다 그 이유는 일부에서 Google지도가 정확하지 않은 장소 이것은 기계를 사용한 Google지도에 관한 것입니다 데이터의 결과를 분석하고 인쇄하는 학습 알고리즘 그래서 더 앱에 제공하는 데이터가 많을수록 더 정확합니다

괜찮아 계속해서 9 번 다음에는 Google Translate가 있습니다 Google 번역은 문장을 번역 할 수있는 무료 도구입니다 문서, 심지어 전체 웹 사이트까지 즉시 작동하지만 정확히 어떻게 작동합니까? Google 번역기는 기계 학습을 사용하여 텍스트를 어떻게 번역합니까? 글쎄, 그것은 Google에 이중 언어 ELL이 가득 찬 방이있는 것처럼 보일 수 있지만 중요한 것은 모든 번역이 컴퓨터에서 나온다는 것입니다 이 컴퓨터는 통계 기계 번역이라는 프로세스를 사용합니다

컴퓨터가 다음을 기반으로 번역을 생성한다고 말하는 멋진 방법 많은 양의 텍스트에서 발견되는 패턴 물러나 보자 네가 원한다면 누군가에게 새로운 언어를 가르치기 위해 어떻게 시작 하시겠습니까? 글쎄, 당신은 그들에게 어휘, 문법 규칙을 가르쳐서 시작한 다음 문장을 구성하는 방법을 설명하십시오 마찬가지로 컴퓨터가 외국어는 같은 방식으로, 즉 어휘와 규칙 세트 그러나 당신이 볼 때, 새로운 언어를 배우는 것은 매우 복잡하고 모든 언어 학습자는 예외가 있다고 말할 수 있습니다

거의 모든 규칙 이러한 예외와 예외를 모두 캡처하려고하면 컴퓨터 프로그램의 예외로 인해 번역 품질이 깨지기 시작합니다 내려가는 이제 Google 번역과 관련하여 약간 다른 접근법이 필요합니다 그래서 가르치려고하는 대신 언어에 대한 모든 규칙을 컴퓨터에 적용합니다

머신 러닝의 작업 중 하나 인 자체 규칙을 발견하십시오 글쎄, 그들은 수백만 장의 문서를 분석 하여이 작업을 수행합니다 인간 번역가들에 의해 번역됩니다 이 번역본은 책에서 비롯된 것입니다 유엔과 같은 조직과 전세계 웹 사이트

컴퓨터 스캔 이 텍스트는 통계적으로 중요한 패턴, 즉 번역 할 가능성이 거의없는 번역과 원본 텍스트 간의 패턴 기회 컴퓨터가 패턴을 찾으면이 패턴을 사용하여 번역 할 수 있습니다 앞으로 비슷한 텍스트 이제이 과정을 반복하면 수십억 시간, 수십억 개의 패턴과 하나의 매우 똑똑한 컴퓨터 프로그램 그러나 일부 언어의 경우 Google 번역기가 더 적습니다 번역 된 문서를 사용할 수 있으므로 감지 할 패턴이 더 적습니다

이 소프트웨어에 의해 이것이 번역 품질이 다른 이유입니다 언어 Google의 번역은 항상 완벽하지는 않지만 지속적으로 새로운 번역 된 텍스트를 제공하여 컴퓨터를 더욱 스마트하고 더 나은 번역 다음에 문장이나 웹 페이지를 번역하면 구글 번역, 수백만 개의 문서와 수십억 개의 결국에 일어나는 모든 일의 번역으로 이끈 패턴 머신 러닝 알고리즘을 사용하여 눈을 깜박이면 꽤 멋지지 않습니다! 이것은 Google이 귀하의 음성을 번역하는 방법에 관한 것입니다 계속해서, 8 번 다음에는 Auto Alt가 있습니다

Facebook의 텍스트 그래서 무엇입니까? 보자 오늘날 Facebook은 시각 장애인이 탐색 할 수있는 새로운 기능을 출시했습니다 인터넷을 통해 친구들이 이전과 같이 게시 한 사진을 볼 수 있습니다 이 기능을 자동 대체 텍스트라고합니다 그것은 단지 하나의 기술 회사가 시각 장애인이 세상을 경험하는 방식을 바꾸는 방법 온라인과 오프라인

세계 보건기구에 따르면 전 세계 4 천 9 백만 명이 넘는 맹인과 인터넷을 사용할 수 없다는 의미는 아닙니다 그러나 그들이 경험하는 방식 사람들이하는 것을 보는 것과는 아주 다릅니다 글쎄, 당신에 대해 이야기 할 수 있습니다 정보가 가득한 전체 화면을보고 필요한 정보를 얻는 방법에 대한 결정 사람, 좀 더 어색합니다 블라인드는 screen이라는 도구를 사용합니다 웹 사이트 나 앱을 설명하거나 점자 (즉, 하나)로 번역하는 독자 한 번에 한 줄의 텍스트 또는 링크

마우스를 사용하는 대신 일반적으로 키보드 단축키를 사용하여 페이지를 뛰어 넘습니다 스크린 리더는 보이는 것뿐만 아니라 웹 사이트 코드를보고 작동합니다 디스플레이 때로는 그렇지 않은 경우 사이트를 거의 이해할 수없는 경우가 있습니다 기술에 의해 읽히도록 설계되었습니다 인터넷의 초기 시절은 실제로 거의 모든 것이 텍스트 였지만 시간이 지남에 따라 내용뿐만 아니라 디자인도 본질적으로 훨씬 시각적으로 나타납니다

사회적인 미디어는 이러한 변화의 큰 부분이되었습니다 페이스 북은 사람들이 공유한다고 다양한 제품에서 매일 20 억 개가 넘는 사진이 있지만 그들이 텍스트와 함께 제공되지 않는 경우 사진은 장님을 위해 쓸모가 없습니다 그들이 보여주는 것을 설명하십시오 따라서 Facebook은이 문제를 해결하려고합니다 자동 대체 텍스트로 사용자가 내장 리더를 가지고있을 때처럼 작동합니다 앱에서 사진을 켜고 선택한 다음 Facebook은 인공 이미지의 기본 기능을 감지하고 새로운 기능을 생성하는 인텔리전스 알고리즘 스크린 리더가 사용자와 공유 할 대체 텍스트 (기본적으로 설명) 사진에 무엇이 있습니까? 예를 들어 사진에 부부가 있다면 선글라스를 착용 한 채 바다가 내려다 보이는 새로운 대체 텍스트는 이미지에 미소, 선글라스, 하늘, 야외, 물

정확히 시가 아닙니다 결국, 그들은 대체 텍스트를 내러티브와 비슷하게 만들지 만 맹인 사용자에게 새로운 방법을 제공합니다 이미지에 무엇이 있는지 상상해보십시오 글쎄, 페이스 북은 유일한 사람이 아닙니다 시각 장애인들을 위해 인터넷을보다 유용하게 사용하려고 노력했습니다 트위터도 최근에 사용자가 alt를 첨부 할 수있는 기능을 발표했습니다 이미지 또는 대체 텍스트를 업로드 한 이미지에 추가합니다

그래서 이것은 Facebook이 기계 학습 및 인공 지능을 사용하여 장님을 도와주세요 다음으로 7 위에 아마존 추천 엔진이 있습니다 그렇다면 아마존이 다음 제품을 어떻게 추천한다고 생각하십니까? 대답은 빅 데이터를 이용한 머신 러닝 그래서 그들은 어떻게 추천을 돕고 있습니까? 아마존의 시스템 엔진? 여기에는 이벤트, 등급 및 필터링 이벤트 단계에서 Amazon은 모든 고객의 데이터를 추적하고 저장합니다

사이트에서의 행동과 활동 클릭 할 때마다 이벤트이며 기록 사용자의 데이터베이스가 데이터베이스에 로그인되었습니다 항목은 다음과 같이 저장됩니다 사용자 A는 X 제품을 한 번 클릭합니다 너무나 다른 사용자와 같은 다양한 종류의 작업을 위해 다양한 종류의 이벤트가 캡처됩니다 제품 구매, 장바구니에 제품 추가 또는 제품 구매

다음 것은 평가입니다 글쎄, 평가는 사용자가 제품에 대한 느낌 추천 시스템은 다음에 암시 적 값을 할당합니다 별 4 개와 같은 다양한 종류의 사용자 작업, 좋아요 3 개, 클릭 별 2 개 등이 있습니다 이제이 추천 시스템은 NLP 또는 자국어도 사용합니다

피드백과 같이 사용자에 의해 제공되는 피드백을 분석하기위한 프로세싱 '제품은 훌륭했지만 포장은 전혀 좋지 않았습니다' 따라서 자연어 처리, 추천 시스템은 정서 점수 및 피드백을 양수, 음수 또는 중립으로 분류합니다 여기까지는 등급에 관한 것이 었습니다 그래서, 마지막 세 번째 단계는 필터링입니다 이 단계에서 기계는 제품을 걸러냅니다 평가 및 기타 사용자 데이터를 기반으로합니다

추천 시스템은 다른 사용 협업 필터링, 사용자 기반 필터링 및 하이브리드와 같은 종류의 필터링 필터링 협업 필터링은 모든 사용자가 선택할 수있는 필터링입니다 그들은 추천을받습니다 예를 들어, 사용자 X는 제품 A, B, C, D와 사용자 Y는 제품 A, B, C, D 및 E를 좋아합니다 따라서 사용자가 X는 또한 제품 E를 좋아하고 기계는 제품 E를 사용자 X

다음은 사용자 기반 필터링입니다 잘, 여기에서 사용자의 인터넷 사용 기록, 좋아요, 구매 및 평가는 추천을 제공하기 전에 계정 마지막으로 다음은 하이브리드 접근법 글쎄, 둘의 혼합과 일치가 있습니다 협업 및 사용자 기반 필터링 유형 그래서 이것은 아마존이 다음 제품을 권장합니다

글쎄,이 추천은 단지 아마존, 알리바바, 이베이, 플립 카트 등 같은 접근법을 사용합니다 앞으로 6 위로 Gmail에서 스팸을 탐지했습니다 그래서 어떻게 지내 Gmail은 어떤 이메일이 스팸인지 이해합니다 보자 스팸 탐지는 기본적으로 필터를 기준으로 작동합니다 설정 새로운 기술, 새로운 스팸 식별, 잠재적 스팸 발송자에 대한 Gmail 사용자의 의견입니다

스팸 필터는 텍스트 필터를 사용하거나 스레드를 제거합니다 발신자 및 발신자보고 여부와 같은 기록을 기반으로합니다 먼저 텍스트 필터가 있습니다 그래서 텍스트 필터는 알고리즘을 사용하여 가장 적합한 단어와 구문을 감지하여 작동합니다 스팸 이메일에 자주 사용됩니다

'추첨'또는 '무료 비트 코인 획득'과 같은 문구는 다음과 같습니다 종종 필터에 의한 제거를위한 즉각적인 플래그 스패머들은 이것을 현명하게 받았습니다 일 그래서 종종 철자가 틀리거나 필터를 통과하기 위해 '무료 달러'와 같은 문자 다행히도 모뎀 스팸 필터는 이러한 유형의 철자가 틀리거나 문자를 바꾸어도 단어가 나타나면 메시지는 여전히 차단됩니다

우리가 가진 다음 유형의 필터 클라이언트 필터입니다 간단한 텍스트 필터 알고리즘 외에도 스팸 필터는 클라이언트 ID 및 기록을 사용하여 악의적이고 성가신 것을 차단합니다 스팸 이메일 스팸 필터는 어떻게 작동합니까? 글쎄, 이것은 모든 것을 보면서 이루어집니다 사용자가 보낸 메시지 중 그들이 대량의 이메일을 보내면 지속적으로 또는 여러 메시지가 이미 텍스트 필터를 통한 스팸으로 인해 이메일이 완전히 차단되는 경우가 많습니다

그래서, 이것은 블랙리스트를 사용하게합니다 스팸 필터에는 블랙리스트도 포함됩니다 블랙리스트는 단순히 알려진 이메일 주소를 추가하는 과정입니다 목록에 스패머 이 목록은 전자 메일에서 들어오는 메시지를 차단합니다

앞으로 주소 스팸으로 표시 한 경우 스팸 이 블랙리스트로 바로 이동하면 Google 또는 Gmail에서 해당 스팸 메일의 특정 키워드를 기록하십시오 그게 개요 야 스팸 감지 또는 Gmail이 어떤 이메일이 스팸인지 이해하는 방식 실시간은 훨씬 더 복잡한 과정을 처리하고 많은 양의 데이터를 소비합니다 그래서, 계속 갑시다 5 위에는 Amazon Alexa가 있습니다

Amazon Alexa가 귀하의 명령을 이해하는 방법 글쎄, 당신이있는 장치 화면에 보이는 것은 아마존 에코이며 뇌 또는 에코의 목소리는 알려져 있습니다 아마존 알렉사로 이 장치에는 수많은 내장 스마트 기능이있어 음악 재생 및 표시 등 깜박임과 같은 작업 이 장치에는 재생과 같은 많은 작업을 수행하기에 충분한 내장 스마트 기능이 있습니다 음악, 날씨 보고서 제공 또는 표시 등 깜박임 또한 할 수 있습니다 Alexa 이름을 인식하십시오 Alexa라는 단어를 말할 때 단어를 인식합니다

아마존은 이것을 약한 단어라고 부르며 알렉사라는 단어를 말할 때 시작합니다 말을 마치면 음성을 녹음하여 인터넷을 통해이를 처리하는 서비스를 아마존에 기록 녹음은 Alexa 음성 서비스 또는 AVS라고하며 Amazon it에서 서비스를 실행합니다 녹음을 명령 이상의 것으로 해석하여 간단한 음성 통화 시간으로 완벽하게 프로그래밍 할 수있는 서비스입니다 다른 온라인 서비스를 통해 일단 승인 된 놀라운 일을 아마존 누구나 누구나 무료로 서비스를 사용하여 수제 에코를 만들 수 있습니다 아마존은 간단한 30 라즈베리 파이를 사용하여 하나를 구축하기위한 샘플 코드를 제공합니다 달러 컴퓨터 잘 그것은 매우 이타적인 소리 아마존은 무료로 서비스를 제공하지만 항상 그렇듯이 아마존이 다른 사람들이 제품에 서비스를 구축하기를 원하는 이유 Alexa가 내장 된 모든 제품이 Alexa가 해석 할 수있는 이러한 명령을 Amazon에서 물건을 구매하는 데 사용할 수 있습니다

Avs가 Alexa의 오디오 파일을 다시 보내도록 요청하면 매우 간단합니다 에코가 재생되는 시간을 알려 주면 더 복잡 할 수도 있습니다 Alexa에게 Pink Floyd를 연주하라고하면 Avs는 음악을 검색합니다 Pink Floyd에 대해 설정 한 서버는 에코로 명령을 다시 보냅니다 요청한 음악을 재생하는 Alexa는 다른 작업을 수행 할 수도 있습니다 예를 들어 필립스를 설치 한 경우 가정 및 그 밖의 기술 색조 스마트 전구를 제어 할 수 있습니다

Alexa에게 거실을 켜도록 요청할 수 있습니다 조명과 Alexa는 명령을 에코에 명령을 보냅니다 전구를 켜면 엘릭서를 연결할 수있는 온라인 서비스에서도 작동 가능 동네 짱에 당신은 단순히 알렉사에게 요청하여 오버 드라이브를 요청할 수 있습니다 도미노에게 전달하면 음성으로 피자를 주문할 수 있습니다 그 에코와 알렉사는 많은 일을 할 수 있고 목록은 점점 더 이상 아마존은 기술이라는 기능을 더 추가하고 있습니다 -Alexa 그리고 당신이 충분히 영리하다면 당신은 스스로 기술을 쌓을 수 있습니다 Alexa를 사용하여 해커가 다음과 같은 작업을 수행하기 위해 열심히 노력하고 있습니다 지원 목록 미디어 센터 프로그램 kody 제어 및 파악을위한 지원 추가 다음 버스가 현지 버스 정류장에 도착할 때이 방법도 Alexa의 Achilles 힐이라고 불릴 때는 인터넷 연결과 AWS가 필요합니다

연결이 느리거나 작동하지 않는 경우 작동 nxr을 사용할 수없고 아마존이 귀하가 비용을 청구하기로 결정하면 에코는 미래에 쓸모가 없습니다 서비스를 중단하거나 폐쇄하면 쓸모없는 장치가 남습니다 아마존은 시장에서 유일한 회사가 아닙니다 Google Apple 및 Microsoft는 음성으로 작업을 수행 할 수있는 서비스를 제공합니다 ok Google Siri 및 Cortana 형식으로 명령을 사용하더라도 동일한 것을 사용하고 있습니다 클라우드 서비스에서 처리되지만 대부분의 음성 명령으로 접근 Alex Isles만큼 유연하거나 서비스와 통합되어 있지 않습니다 이러한 서비스 중 하나가 우리 모두가 희망적으로 사용하는 서비스가 될 수 있습니다

알렉사만큼 정중 할 것입니다 nxr 그녀가 일하는 방식 그녀는 많은 사람들이 저를 가르치기 위해 열심히 노력했다고 대답했습니다 나는 아직도 배우고 있는데 올라가면 좋지 않을 것입니다 다트 겸손하고 정중 한 답변으로 계속 진행하겠습니다 다음으로 4 위에 최근 테슬라의 자율 주행 차가 있습니다

연구에 따르면 교통 사고의 90 % 이상이 실수는 인간이지만 바퀴 뒤의 실수는 종종 치명적입니다 사고는 막대한 수의 불필요한 죽음으로 이어졌다 그들이 더 안전하게 운전하면 구원을 얻었으므로 자율 주행 차량이 있습니다 그들은 많은 자율 자동차입니다 그림에 온다 인간이 운전하는 자동차보다 안전하며 운전자와 같은 요인에 영향을받지 않습니다 피로 감정이나 질병으로 인해 매우 안전한 자율 주행 차가됩니다

항상 환경을 관찰하고 여러 스캔을 능동적으로 입력하십시오 자동차가 예상하지 못한 움직임을하기가 어렵다는 지시 그렇게 시원하지는 않지만 주요 질문은 자율 주행 자동차가 어떻게 작동합니까? 이 자율 주행 자동차는 주로 세 가지 기술을 사용합니다 센서와 IOT 연결성 및 이러한 소프트웨어 알고리즘 IOT 센서에 대해 이야기하면 많은 유형의 센서를 사용할 수 있습니다 오늘날 자율 주행 자동차를 사각 지대에 대한 현실 센서로 만드는 것 전방 충돌 경고 레이더 카메라 레이더 및 초음파 모두 모니터링 자율 주행 자동차의 내비게이션을 가능하게하기 위해 협력 다음은 IOT 연결성 자체 주행 자동차가 클라우드 컴퓨팅을 사용하는 것입니다 교통 데이터 날씨지도 인접 차량 및 표면 상태에 따라 작동 무엇보다 주변 환경을 더 잘 모니터링하고 현명한 결정 잘 운전 자동차는 연결해야합니다 에지 컴퓨팅 하드웨어가 작은 문제를 해결할 수있는 경우에도 항상 인터넷에 로컬로 작업을 계산하므로 마침내 소프트웨어 알고리즘을 만들 수 있습니다 차량이 수집하는 모든 데이터를 분석해야합니다 최선의 행동 과정을 결정하십시오 이것이 통제의 주요 기능입니다

알고리즘과 소프트웨어가 여기에 기계 학습이 등장하는 곳입니다 자가 운전 차량의 가장 복잡한 부분입니다 우버 셀 운전 사고와 같은 결함이 완벽하고 정확하게 결정 오늘날의 세계에서 가장 치명적인 자율 주행 차는 Tesla와 Google Tesla 자동차는 자동 조종 장치라고하는 소프트웨어 시스템이 자동 조종 장치는 첨단 카메라를 사용하여 우리가하는 일을 사용하기 위해 I를 사용하는 것처럼 세상에서 데이터를 수집합니다 컴퓨터 비전 또는 정교한 이미지 인식 그런 다음이 정보를 해석하고이를 바탕으로 최선의 결정을 내립니다 오 테슬라의 자율 주행 자동차 기술은 오늘날 시장에서 이미 판매되고 있으므로 자율 주행 방식은 기계 학습 기술을 사용한 자동차 산책 좀 더 명확하게 해줄 비디오를 보여 드리겠습니다

다음날 아침 3 위에 넷플릭스 영화 추천이 있습니다 TV 프로그램의 80 % 이상이 Netflix에서 시청하고 있다는 것을 보여줍니다 의미 플랫폼 추천 시스템을 통해 발견 Netflix에서 시청하기로 결정한 대부분은 결정의 결과입니다 신비한 블랙 박스 알고리즘으로 TV의 80 % 이상이 Netflix에서 사람들은 플랫폼 권장 사항을 통해 발견됩니다 Netflix에서 시청하기로 결정한 대부분을 알고리즘의 신비한 블랙 박스가 내린 결정의 결과 Netflix에서 영화를 추천하는 방식에 대해 배우고 싶습니다 넷플릭스는 머신 러닝 알고리즘을 사용하여 영화와 당신이 처음에 잘 선택하지 않았을 수도있는 쇼를 찾으십시오 이것은 보드에 의존하지 않고 내용 내에서 스레드를 봅니다

예를 들어 1과 8을 설명하는 저널 사람들은 넷플릭스 마블 쇼가 만화에 기반을 둔 것들에 완전히 새로운 것을 본다 넷플릭스 토드 옐린 넷플릭스 부사장 제품 혁신을 통해 Netflix가 3 개의 다리로 작동하는 것을 설명했습니다 의자의 세 다리는 넷플릭스 회원 두 번째 단검이 될 것입니다 내용과 세 번째 머신 러닝에 대한 모든 것을 이해 모든 데이터를 취합하고 정리하는 알고리즘 Netflix는 각각에 대해 여러 사용자 프로필을 계산할 경우 전세계 1 억 명 이상의 사용자 가입자는 총 약 2 억 5 천만 개의 활성 프로파일을 제공합니다 Netflix는 이러한 프로파일과 다른 종류의 데이터를 사용하여 프로필에서 무엇을보고 있습니까? 현재 동영상을 완성하고 이전에 본 동영상도 1 년 전에 시청 한 내용 또는 현재 시청 한 내용을 추적합니다 이 데이터는 은유 적 인 대변의 첫 번째 다리는 이제이 정보를 당신이 이것을보고있는 쇼의 내용을 이해하기 위해 더 많은 데이터 데이터는 수십 개의 사내에서 수집되며 매 분마다 프리랜서 직원이 시청합니다 Netflix의 모든 쇼와 그들이 사용하는 태그를 대상으로 조립 케이스가 있는지 또는 공간에 설정되어 있는지 또는 부패 경찰이 이러한 모든 태그와 사용자 행동 데이터를 가져와 가장 중요한 것을 알아내는 매우 정교한 기계 학습 알고리즘 소비자가 가지고 있다면 얼마나 중요해야 하는가? 어제 뭔가를 보았을 때 그들이 본 것에 비해 10 배나 많은 장난감 일년 전쯤에 그들이 약 10 분 동안 내용물을 버리고 두 날 밤에 깜박 거 렸습니다 Netflix는 머신 러닝이 제공되는 모든 부분을 어떻게 잘 지불합니까? 이 세 가지가 만든 것은 전 세계의 미각 공동체입니다 시청자가 보는 것과 같은 종류의 것을 보는 사람들에 대해 수천 개의 다양한 맛 그룹에 적합하며 화면 인터페이스 상단에 추천 팝업 John Rose 내용 개별 뷰어에서 각 행이 어떻게 표시되는지 머신 러닝 알고리즘에 사용되는 태그는 전 세계에서 동일합니다 태그의 가장 작은 하위 집합이 더 바깥 쪽을 향한 방식으로 사용되는 방법 사용자 인터페이스에 직접 연결하고 국가에 따라 연기 언어 및 문화적 맥락에서 태그를 현지화해야합니다 예를 들어, 끔찍한 드라마에서와 같이 칙칙한 단어는 Netflix가 제공하는 데이터를 스페인어 또는 프랑스어로 번역하십시오

알고리즘은 암시 적 및 명시 적 명시의 두 가지 유형으로 분류 될 수 있습니다 데이터는 말 그대로 우리에게 말한 것입니다 예를 들어 친구와 Netflix는 다음에 암시 적 데이터입니다 암시 적 데이터는 실제로 행동 데이터는 Netflix에 명시 적으로 말하지 않은 것과 같습니다 블랙 메탈 같은데 그냥 블렌딩해서 이틀 밤에 봤어요 여기서 Netflix는 다음과 같이 행동 적으로 잘 이해합니다

유용한 데이터의 대부분은 암시 적 데이터이므로 Netflix가 기계 학습을 사용하여 마지막에 결국 영화를 추천합니다 우리는 Molly의 평결 부엌을 가지고 있습니다 기계에게 당신이 먹고 싶은 것을 말하면 기계는 정확히 같은 요리법을 요리합니다 그리고 이것이 미래라고 생각하면 당신을위한 정확한 장소 몰리라는 회사가 이미 그런 로봇을 만들었습니다 로봇은 당신을 위해 n 개의 요리를 충분히 배울 수 있습니다 다시 짧은 동영상을 보여 드리면 더 명확 해집니다

매일 5 인 요리사가 모든 식사를 요리한다고 상상해보십시오 인생 이것은 꿈과 몰리 로봇 공학이 달성하려는 목표입니다 그들은 최초의 완전 자동화 된 지능형 로봇을 만들었습니다 레시피는 모든 종류의 음식을 놀랍도록 정밀하게 요리 할 수 ​​있습니다 그런 다음 몰리 로봇 공학이 작업 프로토 타입을 제작 한 후 정리하십시오

이 미래 지향적 인 워크 스테이션이 장착 된 몰리 주방 주방 용품을 측정 할 수있는 고급 로봇 팔과 손으로 액체 측정 계란을 부수십시오 당신이 그것을 할 수 있습니다 MasterChef 우승자 Tim Anderson이 고용되었습니다 Molly의 개발 요리사로서 로봇 팀이 로봇은 모션 캡처 장갑과 손목 밴드를 사용하여 요리하는 방법 비디오 게임은 잠재적으로 움직임을 기록 할 수 있음을 의미합니다 다른 유명한 요리사들과 함께 직접적으로 식사를 준비해 봅시다 요리사 Gordon Ramsay moley 로봇 공학은 최근 크라우드 펀딩을 시작했습니다 프로토 타입의 투자자 및 잠재적 테스터를 찾는 캠페인 로봇 능력 향상을 돕는 주방 Moli는 그들이 할 수 있다고 믿습니다 통신을 위해 수행 한 스마트 폰 장치 요리 및 진공 청소기 당신이 할 수있는 제품 비디오에 따라 청소기 청소를 완료했습니다 cnetcom에서 몰리 로봇 공학 주방에 대해 자세히 알아보십시오 그래서 이것은 남성 로봇 주방에 관한 것이 었습니다 Google 번역가가 텍스트를 번역하는 데 사용하는 방법 중 통계적 기계 번역 인 ARIMA 모델은 군집화 및 D 참조 차원 축소이므로 의견에 답을 내려 놓으십시오

당신이 올바르게 대답했는지 확인하려면 아래 섹션을 참조하십시오 이 세션의 모든 우려 사항이있는 경우 모두 당신이 그것을 좋아 희망 어려운 설명을 위해 아래에 귀하의 의견을 적어주십시오 intelli Pat의 YouTube를 구독하는 것을 잊지 마십시오 다가오는 동영상에 대한 즉각적인 알림을받는 채널

SAS Demo | Deep Learning with Python (DLPy) and SAS Viya for Computer Vision

안녕하세요, 저는 Susan Kahler이고 인공 지능과 기계 학습에 대한 책임이 있습니다 SAS에서

이 비디오에서는 SAS Deep Learning Python API 또는 DLPy에 대해 간략하게 설명합니다 이 시리즈는 DLPy가 지원하는 최신 컴퓨터 비전 모델에 중점을 둘 것입니다 DLPy를 통해 Python에 익숙한 데이터 과학자는 딥 러닝을 활용할 수 있습니다 SAS Viya의 컴퓨터 비전 기능 설명의 링크를 사용하여 주제로 직접 이동하십시오

첫 번째 섹션에서는 DLPy와 함께 Functional API를 활용하여 빌드하는 방법을 살펴 봅니다 ResNet 모델을 포함한 기능 추출을위한 복잡한 모델 다음으로 축구를 추적하기 위해 U-Net 모델을 사용하여 이미지 세분화를 수행하는 방법을 살펴 보겠습니다 선수 그런 다음 DLPY가 VGG16을 백본으로 사용하여 Faster R-CNN을 사용하여 객체 감지를 지원하는 방법을 살펴 보겠습니다 회로망

스위칭 기어, DLPy가 어떻게 MobileNet 및 ShuffleNet을 지원하고 성능을 비교하는지 살펴 보겠습니다 ResNet50 모델이있는 모델 중 하나입니다 마지막으로 훈련과 추론 모두에서 멀티 태스킹 학습이 수행되는 방법을 살펴 보겠습니다 제품 권장 사항에 대해서는 소매 도메인에서 추론을 위해 Python 용 이벤트 스트림 처리 패키지 인 SAS ESPPy를 사용합니다 DLPy에는 Python 3 이상 및 SAS Viya 34가 필요합니다

또한 Analytics 전송을위한 SAS 스크립팅 래퍼 또는 SWAT 패키지가 필요합니다 DLPy는 python-dlpy 디렉토리의 SAS 소프트웨어 용 GitHub에서 사용할 수 있습니다 이 비디오에 실린 Jupyter 노트북도 해당 위치에 있습니다 DLPy의 최신 컴퓨터 비전 기능에 대해 배우고 즐기시기 바랍니다 스스로를 위해

안녕하세요, 저는 SAS의 데이터 과학자 인 Wenyu이며 딥 러닝과 컴퓨터에 중점을 둡니다 비전 API 이 비디오에서는 고급 Python API, Python을 사용한 SAS Deep Learning 또는 (DLPy) 이 비디오의 목적은 SAS에서 기능적 API를 활용하는 방법을 보여주는 것입니다 복잡한 모델을 만들기위한 DLPy 보다 유연한 방법을 제공하기 때문에 Functional API에 중점을두고 있습니다

Keras Functional API와 매우 유사한 복잡한 모델을 구현하십시오 Sequential API는 공유 모델을 만들 수 없다는 점에서 제한적입니다 레이어 또는 여러 입력 또는 출력이 있습니다 입력 및 출력이 여러 개인 모델이 Functional API를 사용하는 좋은 예입니다 간단한 6 단계로 SAS DLPy를 사용하여 모델을 생성 해 봅시다

텐서를 반환하는 Input ()에 의해 두 개의 텐서 (회색조 이미지와 RGB 이미지)를 정의합니다 목적 그런 다음 그레이 스케일 이미지가 두 개의 컨볼 루션 브랜치에 공급됩니다 이 모델에는 또 다른 입력 컬러 이미지가 있습니다 그런 다음 이미지의 특징을 추출하기 위해 컨벌루션 연산이 사용됩니다

세 개의 텐서가 연결되고 OutputLayer_1에서 분류를 계산하는 데 사용됩니다 손실 또한 모델은 OutputLayer_2를 통해 감독됩니다 그런 다음 정의 된 입력 텐서 및 출력 텐서를 Model () 함수에 전달합니다 마지막으로 compile ()을 호출하여 네트워크를 컴파일합니다

여기서는 모델의 요약과 네트워크 그래프를 보여줍니다 레이어 연결 이 다음 모델에서는 ResNet 유사 모델을 작성하는 방법을 고려하십시오 이 작업에서는 돌고래 또는 기린을 포함하는지 여부에 따라 이미지를 분류합니다 먼저 각각의 직후에 배치 정규화를 채택하는 회선 블록을 정의합니다

회선 다음으로, 나머지 블록 내에서 바로 가기 연결을 사용하여 입력 기능을 연결합니다 컨볼 루션의 출력에 4 개의 누적 잔차 블록이 있으며 네트워크는 전체 평균 풀링으로 끝납니다 다음은 순차적으로 누적 된 4 개의 잔차 블록과 전역 평균을 보여주는 모델의 그래프입니다 풀링

모델이 빌드되면 ImageTable API에 의해 데이터가로드되고 모델을 학습 할 수 있습니다 순차적 인 모델처럼 SAS DLPy API를 사용하면 사전 훈련 된 여러 출력 모델을보다 쉽게 ​​정의 할 수 있습니다 기능 추출기로서의 백본 다음 경우에는 가중치와 함께 ResNet18 모델을로드합니다 다음으로로드 된 모델을 기능 모델로 변환하고 원래 작업 계층을 삭제합니다 이를 위해 to_functional_model ()을 사용하고 stop_layers를 지정합니다

그래프 이동을 중지하는 레이어 즉, stop_layers와 stop_layers가 뒤에 오는 모든 레이어가 제거됩니다 기능적 모델 그런 다음 OutputLayer와 Keypoints Layer라는 두 가지 새로운 작업 계층을 추가합니다 그래프 하단에서 새로 추가 된 두 개의 레이어를 볼 수 있습니다

이 비디오에서는 DLPy를 사용하여 여러 입력 및 출력을 가진 모델을 만든 다음 ResNet과 유사한 모델이며 마지막으로 순차 모델을 기능 모델로 변환했습니다 시청 해주셔서 감사합니다 안녕하세요, 저는 Maggie Du이고 SAS의 기계 학습 개발자이며 딥 러닝 및 컴퓨터 비전 API 이 비디오에서는 DLPy라고하는 SAS 고급 딥 러닝 Python API를 사용하여 게임에서 축구 선수를 추적하는 이미지 분할 문제를 해결하는 방법을 보여줍니다 각 플레이어에 대한 통계를 제공합니다

코치에 의한 경기 후 분석과 같은 여러 목적으로 통계를 사용할 수 있습니다 팬들에게 증강 게임 시청 경험을 제공합니다 이미지 분할은 이미지를 의미 적으로 의미있는 부분으로 분할하려고 시도합니다 각 부분을 사전 정의 된 레이블 중 하나로 분류합니다 따라서 픽셀 수준에서 이미지를 이해하는 새로운 방법입니다

예를 들어이 이미지에는 개, 고양이 및 배경의 세 가지 클래스가 있습니다 따라서 우리는 각 픽셀에 어떤 클래스가 속하는지를 나타내는 특정 색상을 부여합니다 전반적으로 각 객체의 정확한 경계를 얻을 수 있습니다 시작하자 필요한 모듈을로드 한 후 데이터 세트를로드하려고합니다

우리는 축구 경기의 이미지를 예로 들어 170 이미지가 포함 된 모두 256 * 256으로 조정되었습니다 다음은 원시 이미지와 해당 주석의 시각화입니다 이미지에는 축구 선수, 축구 공 및 배경의 세 가지 다른 객체가 있습니다 따라서 주석 이미지에는 세 가지 색상이 포함됩니다 그런 다음 데이터 세트를 학습 데이터, 유효성 검사 데이터 및 테스트 데이터로 무작위로 나눕니다

다음으로 SAS DLPy를 사용하여 U-Net 모델을 구축하려고합니다 이 대칭 모델은 인코딩과 디코딩의 두 부분으로 볼 수 있습니다 기능 크기가 가장 작은 레이어 인 병목 현상 레이어로 분할됩니다 인코딩 부분에서 풀링 레이어를 사용하여 다운 샘플링을 수행하여 기능을 추출합니다 디코딩에서 입력 컨볼 루션 레이어를 사용하여 입력 이미지에서 업 샘플링 학습 된 정보를 재구성하는 부분

또한 텐서를 직접 결합하는 4 개의 연결 레이어를 모델에 추가했습니다 두 개의 다른 레이어에서 이전의 특정 정보를 쉽게 상속받을 수 있습니다 층 SAS DLPy는 사전 정의 된 U-Net 모델을로드하는 기능을 제공합니다 인코딩을위한 4 개의 풀링 계층 및 디코딩을위한 4 개의 전치 컨볼 루션 계층

축구 경기 데이터 모델에는 3 천 4 백만 개가 넘는 매개 변수가 포함되어 있습니다 SAS DLPy API를 사용하여 계층별로 고유 한 U-Net 모델을 만들 수도 있습니다 병목 현상 레이어의 크기 및 컨볼 루션 수와 같은 기능을 쉽게 결정할 수 있습니다 두 풀링 레이어 사이에 원하는 레이어 아키텍처가 구축되면 교육 데이터를 사용하여 모델을 교육하고 유효성을 검사 할 수 있습니다 검증 데이터 사용

교육이 완료된 후 테스트 데이터를 사용하여 모델의 성능을 테스트 할 수 있습니다 새로운 이미지를 수행합니다 스코어링 메트릭을 확인하거나 예측을 직접 시각화 할 수 있습니다 이 예에서 잘못된 분류 비율은 056 %로 65,536 픽셀 중 약 360 픽셀 만 잘못 레이블이 지정됩니다 두 번째 방법은 간단합니다

여기에 원시 이미지, 주석 및 예측을 나란히 놓고 모델의 성능을 확인하기 위해 모든 것을 쉽게 비교할 수 있습니다 첫 번째 열에는 원시 이미지가 표시되고 가운데 열에는 실제 이미지가 표시됩니다 세 번째 열의 이미지는 예측에서 얻습니다 마지막 두 열 사이에는 약간의 차이 만 있습니다 이는 U-Net 모델을 의미합니다

이 데이터에 매우 효과적이었습니다 이 비디오에서는 SAS DLPy를 사용하여 이미지 세분화 모델을 신속하게 구축하고 이 모델에 대한 교육 및 스코어링 방법 SAS DLPy에는 훨씬 더 많은 기능이 포함되어 있으므로 향후 사용 사례 시청 해주셔서 감사합니다! 안녕하세요, 제 이름은 Xindian Long이고 컴퓨터 비전을위한 딥 러닝 알고리즘을 개발합니다 YOLO, Faster R-CNN, Mask R-CNN 등 SAS Deep Learning for Python (또는 DLPy)은 고급 Python과 함께 제공됩니다 사용자가 이러한 기능을 사용할 수 있도록하는 API

현재 그림 1과 같이 주로 물체 감지 방법에는 두 가지 유형이 있습니다 첫 번째 방법은 단일 단계 방법입니다 이 유형의 방법에서 경계 상자 지역화 및 객체 분류는 하나에서 수행됩니다 단계 YOLO, SSD와 같은 알고리즘이이 범주에 속합니다

두 번째 방법은 다단계 방법입니다 여기에는 두 가지 단계가 있습니다 첫 번째 단계에서 지역 제안 네트워크는 관심있는 직사각형 지역을 찾는 것입니다 객체를 포함 할 가능성이 높은 (또는 ROI) 두 번째 단계에서는 추가 회귀 및 분류를 수행하여 실제로 해당 지역에 개체가 있으며, 그렇다면 범주와 정확한 위치 그리고 모양입니다 Faster R-CNN, R-FCN과 같은 알고리즘이이 범주에 속합니다

첫 번째 범주의 알고리즘은 일반적으로 두 번째 범주의 알고리즘보다 빠릅니다 예를 들어 실시간 성능이 필요한 응용 프로그램이있는 경우 YOLO는 아마도 좋은 선택 Faster R-CNN과 같은 두 번째 범주의 알고리즘은 일반적으로 더 정확합니다 “Faster R-CNN”이라는 이름이 언급 된 다른 알고리즘보다 더 빠르게 실행되는 것은 아닙니다 이리

R-CNN 및 Fast R-CNN 알고리즘보다 이전 버전보다 훨씬 빠릅니다 그림 2는 앵커 박스의 중요한 개념을 보여줍니다 그들은 객체에 사용됩니다 YOLO와 Faster R-CNN의 탐지 알고리즘 이 개념을 이해하는 것이 매우 중요합니다 앵커 상자는 이미지의 여러 위치에있는 추상 상자이며 일반적으로 그리드 패턴

사전 정의 된 모양으로 사전 설정된 개수의 경계 상자를 예측하는 데 사용됩니다 각 위치에서 앵커 상자는 예측 된 위치의 초기 값으로 사용됩니다 모양에 따라 개체 크기 / 모양에 대한 사전 지식이 포함되어 있습니다 그림 2의 이미지에서이 한 위치에 많은 앵커 박스가 있음을 알 수 있습니다 상자마다 모양이 다른 물체를 감지합니다

예를 들어이 이미지에서 빨간색 앵커 상자는 사람을 감지하는 상자입니다 물론 최종적으로 감지 된 물체 모양은 원래 물체와 약간 다를 수 있습니다 알고리즘이 최적화하기 때문에 앵커 박스의 모양 그림 3은 Faster R-CNN 네트워크 아키텍처를 보여줍니다 DLPy를 사용하면 계층별로 구축 할 필요가 없습니다 알고리즘 이해를 돕기 위해 그것에 대해 이야기하고 있습니다

그것의 첫 번째 부분은 백본 네트워크입니다 백본 네트워크에는 일반적으로 많은 회선 레이어와 풀링 레이어가 포함되어 있습니다 입력 이미지에서 기능 맵을 추출합니다 널리 사용되는 백본 네트워크에는 VGG16, ShuffleNet 또는 ResNet 등이 있습니다 응용 프로그램 및 요구 사항에 따라 선택할 수 있습니다

지역 제안 네트워크는 백본 네트워크를 따릅니다 지역 제안 네트워크는 많은 제안 된 관심 지역을 출력합니다 개체를 포함 할 가능성이 높은 창입니다 지역 제안 네트워크는 지역 이전에 두 개의 특수한 컨볼 루션 레이어로 구성됩니다 제안서 계층

지역 제안서 레이어에 대해 사용자가 지정해야하는 중요한 매개 변수는 앵커 박스는 제안 될 수있는 형태의 범위를 대략 결정합니다 그 후에는 ROI 풀링 레이어입니다 관심 영역을 백본 네트워크 출력 인 페더 맵에 매핑합니다 창 내부의 픽셀 값을 추출하고 다른 크기의 하위 이미지를 형성합니다 ROI 풀링 레이어는 모든 하위 이미지의 크기를 같은 크기로 조정합니다

이것은 기능 맵의 모든 채널에 대해 수행됩니다 따라서 각 ROI마다 3D 데이터 배열을 얻습니다이를 텐서라고합니다 ROI 풀링 레이어의 출력에는 제안 된 각 영역마다 하나씩 많은 텐서가 포함됩니다 관심의

네트워크의 마지막 부분은 각 텐서와 ROI에서 독립적으로 작동하며 하나를 만듭니다 각 ROI에 대한 결정 세트 먼저, 두 개의 완전 연결된 레이어가 있으며 분류간에 공유됩니다 그리고 경계 상자 회귀 그런 다음 분류 헤더와 경계 상자 회귀 헤더가 있으며 각 헤더 앞에 하나의 완전히 연결된 레이어로 각각

우리 시스템에서 분류 헤더와 바운딩 박스 회귀 헤더는 모두 FastRCNN 계층에서 구현됩니다 빠른 R-CNN 네트워크 아키텍처에 대한 간략한 소개와 알고리즘의 방법 공장 이제 노트북을 볼 수 있습니다 먼저 CAS 서버에 연결합니다 조치 세트를로드하십시오

그리고 CAS 라이브러리를 빌드하십시오 그런 다음 DLPy 함수를 호출하여 앞에서 설명한 모델 아키텍처를 빌드해야합니다 Faster_RCNN 그런 다음 데이터 세트를로드하고 훈련 세트와 데이터 세트로 분할합니다 여기서 데이터 셋과 라벨을 그래픽으로 시각화하고 이미지와 경계를 볼 수 있습니다 상자 및 레이블

네트워크 교육을 위해 사전 훈련 된 가중치를로드하고 대상 열을 정의한 다음 가중치를 계속 최적화하려면 fit 함수를 호출하십시오 그런 다음 predict 함수를 호출하여 객체 위치와 범주를 예측할 수 있습니다 마지막으로 탐지 결과를 시각화 할 수 있습니다 이미지에서 감지 된 개체 주위에 상자가 그려져 있음을 알 수 있습니다 객체 카테고리 자신감뿐만 아니라 보여줍니다

이미지에서 감지 된 양을보십시오 이것이 데모의 끝입니다 DLPy와이 예제를 사용해보십시오 시청 해주셔서 감사합니다! 안녕하세요, Guixian Lin입니다 저는 SAS의 컴퓨터 비전 딥 러닝 개발자입니다

여기에 DLPy로 알려진 SAS 고급 딥 러닝 Python API를 사용하여 가벼우면서도 강력한 컨볼 루션 뉴럴 네트워크를 쉽게 구축하고 훈련 할 수 있습니다 이미지 분류 문제에 대한 (또는 CNN) 이 예에서는 의류를 분류합니다 VGG16 및 ResNet50과 같은 인기있는 CNN은 이미지 분류에 널리 사용되었습니다 뛰어난 정확성을위한 작업 그러나 자원이 제한된 모바일 및 에지 장치의 경우 이러한 CNN은 종종 너무 유용하게 큰

얼굴 인식 및 자율 주행 차와 같은 실시간 애플리케이션에는 충분히 빠르지 않습니다 다음으로 세 가지 효율적인 CNN 인 MobilenetV1, ShufflenetV1 및 MobileNetV2를 소개합니다 이 인기 CNN보다 훨씬 작지만 정확도는 비슷합니다 CNN의 핵심 구성 요소는 컨볼 루션 레이어라는 것을 알고 있습니다 효율적인 MobileNet 및 ShuffleNet의 기본 아이디어는 표준 컨볼 루션을 대체하는 것입니다

가벼운 컨볼 루션 그림 21은 표준 컨벌루션과 깊이 분리형의 차이점을 보여줍니다 깊이 컨벌루션과 포인트 컨벌루션으로 구성된 컨벌루션 맨 윗줄에서 각 블록은 컨벌루션 필터를 나타내며 총 c2 필터가 있습니다

각 컨볼 루션 필터는 공간 정보를 필터링하고 채널 정보를 결합합니다 한 번의 단계로 입력 기능 이를 위해서는 각 컨볼 루션 필터의 깊이가 입력 피처의 깊이와 일치해야합니다 여기서 깊이는 c1입니다 레이어가 깊어 질수록 피처 맵의 깊이가 더 커지는 경우가 종종 있습니다

이러한 인기있는 CNN이 매우 큰 이유입니다 두 번째 행은 깊이 컨벌루션이 공간 정보를 채널별로 필터링 함을 보여줍니다 즉, 각 깊이 방향 컨볼 루션의 깊이는 레이어의 깊이에 관계없이 항상 1입니다 입니다 깊이 컨볼 루션은 입력 채널 만 필터링하므로 출력을 결합해야합니다

유용한 기능을 생성하는 기능 이것은 커널과의 표준 컨볼 루션 인 포인트 컨벌루션으로 수행 할 수 있습니다 1 회 1 회 표준 컨벌루션을 깊이 컨벌루션으로 교체 한 다음 점별 컨볼 루션에서 유사한 방식으로 피쳐와 패턴을 추출 할 수 있지만 모델 크기는 극적으로 감소했습니다 그림 22는 그룹 컨볼 루션을 설명합니다

채널을 여러 그룹으로 나누고 각각의 표준 컨볼 루션을 적용합니다 그룹 예를 들어 g 개의 그룹이있는 경우 모델 크기를 1 / g의 차수로 줄일 수 있습니다 그림 23은 MobileNetV1, ResNet50, ShuffleNetV1 및 MobileNetV2의 빌딩 블록을 보여줍니다

MobileNetV1의 경우 아키텍처는 VGG와 유사합니다 VGG의 표준 컨벌루션을 경량 깊이 컨볼 루션으로 대체합니다 포인트 컨벌루션이 뒤 따른다 ResNet은 종종 ResNet 블록으로 인해 VGG보다 성능이 우수하기 때문에 ShuffleNetV1 MobileNetV2는이 아이디어를 빌 렸습니다 둘 다 ResNet 블록의 표준 컨벌루션을 깊이 컨벌루션으로 대체하여 모델 크기

ShuffleNetV1은 포인트 컨벌루션을 그룹 컨볼 루션으로 대체하여 모델 크기 이제 경량 컨볼 루션이 더 작은 모델을 빌드하는 데 유용하다는 것을 이해합니다 및 ShuffleNet 다음으로 의류 소매 제품 데이터에 대한 성능을 보여 드리겠습니다 먼저 데이터 세트를로드하고 일부 이미지를 표시합니다

여기에는 6 개의 수업이 있으며 약 2,100 개의 이미지가 있습니다 다음으로, 우리는 훈련과 평가를 위해 무작위로 데이터를 훈련과 테스트로 나누었습니다 다른 CNN SAS DLPy는 다양한 사전 구축 네트워크 아키텍처를 제공합니다 매우 효과적입니다

여기서는 CNN을 구축하는 데 사용할 것입니다 MobileNetV1 아키텍처의 경우 다음과 같은 기본 매개 변수를 지정합니다 클래스 수 입력 이미지를 정규화하기위한 오프셋 및 스케일로 분류 될 수있다 또한 임의 뒤집기와 자르기를 사용하여 입력 이미지를 보강합니다 MobileNetV1 모델에는 축소 매개 변수 인 alpha가있어 출력 채널 수 옵티 마이저를 설정 한 후 모델을 학습 할 준비가되었습니다

훈련 로그는 많은 유용한 정보를 알려줍니다 여기에서 모델 매개 변수의 수가 8 백만임을 알 수 있습니다 대상에는 6 개의 클래스가 있습니다 훈련 손실과 오류로 반복 기록을 그릴 수 있습니다

16 오류 후 훈련 오류가 감소하고 수렴 함을 보여줍니다 최종 교육 오류는 약 54 %입니다 다음으로 테스트 데이터에서 모델 성능을 평가합니다 MobileNetV1 모델의 오류율은 5

3 %입니다 그거 좋네! 올바른 예측과 잘못된 예측을 통해 모델을 확인함으로써, 모델이 패턴을 배우고 합리적인 예측을한다는 것을 알 수 있습니다 다음으로 비슷한 단계를 따라 다른 CNN (ShuffleNetV1, MobileNetV2, 및 ResNet50 자세한 내용은 노트북을 참조하십시오 이 모델의 테스트 오류는 다음과 같이 요약됩니다

탁자 이 3 가지 경량 모델은 일반 모델보다 매개 변수가 훨씬 적습니다 ResNet50은이 소매 데이터의 정확성을 향상시킵니다 이 비디오에서 SAS DLPy를 사용하면 이러한 작은 크기를 빠르게 구축하고 훈련 할 수 있습니다 그러나 효율적인 CNN

앞으로의 작업에 이러한 모델을 적용 해 볼 수 있기를 바랍니다 시청 해주셔서 감사합니다! 안녕하세요 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 딥 러닝과 함께 일할 수있는 특권이 있습니다 R & D 팀 컴퓨터 용 Python 및 DLPy 및 SAS Viya를 사용한 딥 러닝을위한 비디오 시리즈입니다

전망 이 특정 비디오에서는 패션에 태그를 지정하기 위해 멀티 태스킹 딥 러닝 모델을 훈련하고 싶습니다 품목 이제 기계 학습에서 종종 이미지를 가져 와서 레이블을 지정하고 단일 이미지를 만듭니다 옷의 종류를 분류하는 것과 같이지도 학습을 통해 하나의 작업을 분류합니다 드레스인가요? 티셔츠인가요? 벨트인가요? 그리고 색상과 같은 다른 의미 속성이 있고 입력 데이터에 레이블을 지정하면 색상을 분류하기 위해 회선 신경망과 같은 다른 것을 훈련하십시오

종종 고려해야 할 장점과 장점 중 하나는 단일 모델을 훈련시키는 것입니다 이 두 가지 과제를 동시에 동시에 배우는 것입니다 이를 유용한 정보를 활용하는 패러다임 인 멀티 태스킹 학습이라고합니다 전체적인 일반화를 향상시키기 위해 여러 관련 작업에서 즉, 모델이 더 잘 맞는 경향이 있습니다 한 작업에 대한 정보가 다른 작업을 예측하는 데 신뢰성을 부여 할 수 있기 때문에 좋습니다

단일 모델이 있으므로 두 모델을 사용하는 것보다 배포가 훨씬 쉽습니다 또는 더 많은 모델 따라서보다 쉽게 ​​관리하고 생산할 수 있습니다 시작하기 전에 멀티 태스킹 학습은 매우 강력합니다 자율 주행 차와 같은 많은 응용 분야에 사용됩니다

영어로 된 문서 모음이 있다고 가정 해 봅시다 프랑스어, 독일어 및 이탈리아어로 번역하고 싶습니다 거기에는 동시에 훈련하는 세 가지 작업이 있습니다 이제이 예에서는 이미 CAS 세션을 시작했습니다 DLPy를로드했으며 CAS 서버에 연결했습니다

가장 먼저 보여 드리고 싶은 것은 디스크에서 이미지를로드하고로드하는 방법입니다 이 예제에서는 하위 디렉토리에서 읽은 후 레이블을 재귀 적으로 가져옵니다 따라서 실제로 디스크에서 데이터를로드하여 메모리로 읽어들입니다 서브 디렉토리에서 레이블을 당기십시오 다음으로하는 일은 간단한 빈도 수이며 데이터가 상당히 균형을 이루고 있음을 알 수 있습니다 모든 작업에서 332 개에서 386 개의 관측치가 있습니다

이런 종류의 균형을 가질 필요는 없으며 분명히 콜스 나 메이 시즈, 우리는 더 많은 관측을 할 것이지만 이것은 간단한 데모입니다 이제 멀티 태스킹 딥 러닝을 수행하는 데있어 가장 까다로운 부분 중 하나는 작업 레이블 자체 이제 내가하고있는 첫 번째 일은 Pandas 데이터 프레임을 사용하고 getDummies를 단순히 이진 지표를 만듭니다 딥 러닝 패키지에는 정말 강력한 것이 있습니다 SAS 함수 컴파일러입니다

이를 사용하여 자신의 손실 함수를 찾을 수 있습니다 여기에서는 계산 된 vars를 사용하여 조건부로 추가 작업을 조건부로 정의하고 있습니다 여성, 의복의 조화는 무엇이며, 나는 그것을 다른 사람들과 다시 합류합니다 데이터 여기 간단한 머리를보고 몇 가지 관찰 만 살펴보면 이제 9 개의 총 작업이 동시에 진행되고 있음을 알 수 있습니다

여자를위한 것이 든 아니든 자, 여기에 이미지를 보여 드리는 예가 있습니다 그들이 어떻게 생겼는지 딥 러닝의 많은 머신 러닝 문제와 마찬가지로 데이터 크기도 조정합니다 200×200으로 설정하고 CAS 서버의 모든 작업자 노드에서 데이터를 섞습니다 여기서 20 %의 샘플을 작성하고 있음을 명심하십시오 이것은 홀드 아웃 데이터 세트 테스트이며, 나머지 80 %의 데이터를 사용하여 학습합니다

에 모델 이제이 시점에서 직접 비순환 그래픽 인 기본 아키텍처를 정의하겠습니다 네트워크를 위해 그리고 DL Plot을 사용하여이를 수행하고 있습니다 입력 레이어, 컨볼 루션 레이어, 배치 규범 풀링 및 밀집 레이어가 있습니다

그러나이 네트워크 플롯을 보면 기본적으로 하나의 아키텍처가 있음을 알 수 있습니다 그리고 그 아키텍처는 우리가 시도하는 모든 결과 작업과 공유됩니다 예측하십시오 모든 작업에 대해 동일한 네트워크를 가질 필요는 없습니다 이것은 기본 예이며 여기에서 실제로 잘 작동합니다 예측하려는 각 작업에 대해 서로 다른 네트워크 아키텍처를 가질 수 있습니다

아키텍처를 정의한 후 모델을 학습하려고합니다 이 예에서는 운동량과 같은 매우 기본적인 최적화 방법을 사용하고 있습니다 60 개의 EPICS를하고 있는데 훈련 옵션을 정의하고 싶습니다 이제 partition이 0 인 곳을 사용하고 있습니다 그것은 훈련 데이터의 80 % 만 가져올 것입니다

모델 무게 등 나중에 득점을 할 수 있습니다 GPU에서도 이것을 훈련하고 있습니다 딥 러닝의 곱셈 특성으로 인해 네트워크를 더 빨리 훈련시킬 수 있습니다 모델과 더 빠른 실험

다양한 최적화 방법을 시도해보고 궁극적으로 최상의 모델을 얻을 수 있습니다 더 빨리 여기에 약간의 출력이 있지만, 내가 시도한 것은 이것을 이것에 요약합니다 반복 플롯 우리가 60 번의 EPICS를했다는 것을 기억하십시오 약 13 ~ 14 개의 EPICS 어딘가에서 쇠퇴와 상실과 시대를보고 있습니다

모델이 실제로 안정화 된 것 같습니다 나는 실제로 그것을 자랑스럽게 생각합니다 좋아 보인다 테스트 데이터와 비교하여 먼저 확인하겠습니다 이 모델은 훈련을 위해 개발되었습니다 이제 데이터의 20 %를 부분 집합 화하겠습니다

훈련에서 절약 한 모델 가중치를 사용하여 해당 데이터의 점수를 매길 것입니다 그리고 여기서 볼 수 있듯이 모든 작업에 대해 평균 제곱 오차가 매우 낮습니다 좀 더 세분화되고 실제로 혼동 행렬과 같은 것을보고 모델이 테스트 데이터에 얼마나 잘 맞는지 그런데이 예측값 p_는 테스트 데이터에 대한 예측값을 나타냅니다 내가 훈련 한 모델에 나는 판다에서 약간의 일을한다 파이썬을 DLPy와 똑바로 혼합하는 것이 좋습니다

그리고 9 가지 작업 각각에 대한 분류 행렬 인 혼동 행렬을 얻습니다 행은 실제 값을 나타내고 열은 예상 값을 나타냅니다 벗어난 대각선에서, 우리가 잘못한 곳입니다 여기에 검은 색은 4 개, 파란색은 4 개, 빨간색은 1 개, 우리는 다른 수업을 살펴보고 정말 잘하고 있습니다 마지막으로, SAS에서 딥 러닝의 비밀 소스 조각 중 하나는 ASTORE

여기에서 실제로 모델을 이진 파일에 저장하여 배치 스코어링을 수행 할 수 있습니다 스트리밍 분석을 사용하여 점수를 매기거나 다른 모델과의 작업을 위해 모델을 ONNX로 가져 오기 PyTorch 및 TensorFlow와 같은 패키지 여기에이 작업을 완료하고 모델을 저장했으며 다음 비디오에서는 실제로 스트리밍 분석을 사용하여이 모델의 점수를 매기는 방법을 살펴 보겠습니다 결론적으로, 멀티 태스킹 딥 러닝은 실제로 여러 개를보고 예측할 수있게합니다 동시에 작업

DLPy를 사용하면 간단합니다 다음 비디오에서 to기를 기대합니다 Python 및 SAS Viya Computer Vision Series를 사용한 딥 러닝에 오신 것을 환영합니다 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 SAS Deep과 함께 일합니다

학습 R & D 팀 이 비디오에서는 DLPy의 자매 인 ESPPy를 사용하여 멀티 태스킹을하고 싶습니다 딥 러닝 모델 이제 이미 멀티 태스킹 딥 러닝 모델을 훈련했습니다 이미지를 모아서 9 가지 작업을 예측하고 동시에 수행 할 수있는 모델을 개발했습니다

이 예제에서하고 싶은 것은 ESPPy를 사용하는 것입니다 또한 SAS 이벤트 스트림 처리 창에 연결할 수 있습니다 프로젝트를 구축하고 창과 상호 작용하며 모델을 배포합니다 SAS Event Stream Processing은 정말 멋집니다 여기에는 클러스터링에서 시계열 분석에 이르는 여러 스트리밍 작업이 포함됩니다

감정 분석 또는 공동 필터링과 같은 작업도 수행 할 수 있습니다 하지만이 데모에서는 이미지 처리 창과 온라인 창을 사용하겠습니다 딥 러닝 멀티 태스킹 모델을 배포 할 수 있습니다 이제 가장 먼저해야 할 일은 실제로 프로젝트를 만드는 것입니다 이 멀티 태스크를 호출하고 실제로이 셀을 실행하겠습니다

그리고 다음으로하고 싶은 것은 프로세스 흐름이나 관로 실제로 이미지를 읽으려면 소스 창이 필요합니다 우리가 일부 교육에서했던 것처럼 모델을 훈련 할 때마다 일반적으로 이미지 따라서 점수를 매길 때 20에서 20으로 크기를 조정하고 이미지 처리를 사용하겠습니다 그렇게하는 창

다음은 모델을 가져와야한다는 것입니다 모델을 학습하고 ASTORE로 저장 했으므로 모델 리더가 있습니다 그것을 읽을 수있는 창 그리고 실시간으로 점수를 생성하는 득점 창이 있습니다 그리고 보면, 프로젝트는 다음과 같습니다

나는 데이터를 읽고 이미지를 표준화하고 점수를 생성합니다 그런 다음 실제로 프로젝트를로드하고 몇 개의 출력 테이블을 설정하겠습니다 여기에 쓸 것입니다 이제 첫 번째 노트북을 사용하여 실제로 노트북을 정의하기 때문에 별도의 노트북이 있습니다 ESP 프로젝트

이 책에서는 간단히 게시하고 점수 매기기 프로세스를 시작하겠습니다 그래서 저는 팔고이 모든 것을 실행합니다 실제로 모델의 점수를 매 깁니다 다시 여기로 돌아가서 이제 이벤트 스트림 처리 엔진을 사용하겠습니다 득점

실제로 예측 확률과 함께 태그가 지정되고 라벨이 지정된 이미지가 표시되는 것을 볼 수 있습니다 작동하는 예제를 제공하는 작은 세트입니다 수면 시간은 03입니다 이벤트 스트림 처리 엔진은 실제로 초당 최대 50 프레임을 수행 할 수 있습니다

시원한 이 데모에서는 이미 멀티 태스킹 학습을 위해 개발 된 모델을 검색을 용이하게하기 위해 스트리밍 분석을 사용하여 배포 할 수있었습니다 콜이나 메이시 같은 사람 교육용 DLPy와 함께 ESPPy를 사용하면 실제로 쉽게 수행 할 수 있습니다

SAS Demo | Deep Learning with Python (DLPy) and SAS Viya for Computer Vision

안녕하세요, 저는 Susan Kahler이고 인공 지능과 기계 학습에 대한 책임이 있습니다 SAS에서

이 비디오에서는 SAS Deep Learning Python API 또는 DLPy에 대해 간략하게 설명합니다 이 시리즈는 DLPy가 지원하는 최신 컴퓨터 비전 모델에 중점을 둘 것입니다 DLPy를 통해 Python에 익숙한 데이터 과학자는 딥 러닝을 활용할 수 있습니다 SAS Viya의 컴퓨터 비전 기능 설명의 링크를 사용하여 주제로 직접 이동하십시오

첫 번째 섹션에서는 DLPy와 함께 Functional API를 활용하여 빌드하는 방법을 살펴 봅니다 ResNet 모델을 포함한 기능 추출을위한 복잡한 모델 다음으로 축구를 추적하기 위해 U-Net 모델을 사용하여 이미지 세분화를 수행하는 방법을 볼 수 있습니다 선수 그런 다음 DLPY가 VGG16을 백본으로 사용하여 Faster R-CNN을 사용하여 객체 감지를 지원하는 방법을 살펴 보겠습니다 회로망

스위칭 기어, DLPy가 어떻게 MobileNet 및 ShuffleNet을 지원하고 성능을 비교하는지 살펴 보겠습니다 ResNet50 모델이있는 모델 중 하나입니다 마지막으로 훈련과 추론 모두에서 멀티 태스킹 학습이 수행되는 방법을 살펴 보겠습니다 제품 권장 사항에 대해서는 소매 도메인에서 추론을 위해 Python 용 이벤트 스트림 처리 패키지 인 SAS ESPPy를 사용합니다 DLPy에는 Python 3 이상 및 SAS Viya 34가 필요합니다

또한 Analytics 전송을위한 SAS 스크립팅 래퍼 또는 SWAT 패키지가 필요합니다 DLPy는 python-dlpy 디렉토리의 SAS 소프트웨어 용 GitHub에서 사용할 수 있습니다 이 비디오에 실린 Jupyter 노트북도 해당 위치에 있습니다 DLPy의 최신 컴퓨터 비전 기능에 대해 배우고 즐기시기 바랍니다 스스로를 위해

안녕하세요, 저는 SAS의 데이터 과학자 인 Wenyu이며 딥 러닝과 컴퓨터에 중점을 둡니다 비전 API 이 비디오에서는 고급 Python API, Python을 사용한 SAS Deep Learning 또는 (DLPy) 이 비디오의 목적은 SAS에서 기능적 API를 활용하는 방법을 보여주는 것입니다 복잡한 모델을 만들기위한 DLPy 보다 유연한 방법을 제공하기 때문에 Functional API에 중점을두고 있습니다

Keras Functional API와 매우 유사한 복잡한 모델을 구현하십시오 Sequential API는 공유 모델을 만들 수 없다는 점에서 제한적입니다 레이어 또는 여러 입력 또는 출력이 있습니다 입력 및 출력이 여러 개인 모델이 Functional API를 사용하는 좋은 예입니다 간단한 6 단계로 SAS DLPy를 사용하여 모델을 생성 해 봅시다

텐서를 반환하는 Input ()에 의해 두 개의 텐서 (회색조 이미지와 RGB 이미지)를 정의합니다 목적 그런 다음 그레이 스케일 이미지가 두 개의 컨볼 루션 브랜치에 공급됩니다 이 모델에는 또 다른 입력 컬러 이미지가 있습니다 그런 다음 이미지의 특징을 추출하기 위해 컨벌루션 연산이 사용됩니다

세 개의 텐서가 연결되고 OutputLayer_1에서 분류를 계산하는 데 사용됩니다 손실 또한 모델은 OutputLayer_2를 통해 감독됩니다 그런 다음 정의 된 입력 텐서 및 출력 텐서를 Model () 함수에 전달합니다 마지막으로 compile ()을 호출하여 네트워크를 컴파일합니다

여기서는 모델의 요약과 네트워크 그래프를 보여줍니다 레이어 연결 이 다음 모델에서는 ResNet 유사 모델을 작성하는 방법을 고려하십시오 이 작업에서는 돌고래 또는 기린을 포함하는지 여부에 따라 이미지를 분류합니다 먼저 각각의 직후에 배치 정규화를 채택하는 회선 블록을 정의합니다

회선 다음으로, 나머지 블록 내에서 바로 가기 연결을 사용하여 입력 기능을 연결합니다 컨볼 루션의 출력에 4 개의 누적 잔차 블록이 있으며 네트워크는 전체 평균 풀링으로 끝납니다 다음은 4 개의 잔차 블록이 순차적으로 누적되고 전체 평균이 표시되는 모델의 그래프입니다 풀링

모델이 빌드되면 ImageTable API에 의해 데이터가로드되고 모델을 학습 할 수 있습니다 순차적 인 모델처럼 SAS DLPy API를 사용하면 사전 훈련 된 여러 출력 모델을보다 쉽게 ​​정의 할 수 있습니다 기능 추출기로서의 백본 다음 경우에는 가중치와 함께 ResNet18 모델을로드합니다 다음으로로드 된 모델을 기능 모델로 변환하고 원래 작업 계층을 삭제합니다 이를 위해 to_functional_model ()을 사용하고 stop_layers를 지정합니다

그래프 이동을 중지하는 레이어 즉, stop_layers와 stop_layers가 뒤에 오는 모든 레이어가 제거됩니다 기능적 모델 그런 다음 OutputLayer와 Keypoints Layer라는 두 가지 새로운 작업 계층을 추가합니다 그래프 하단에서 새로 추가 된 두 개의 레이어를 볼 수 있습니다

이 비디오에서는 DLPy를 사용하여 여러 입력 및 출력을 가진 모델을 만든 다음 ResNet과 유사한 모델이며 마지막으로 순차 모델을 기능 모델로 변환했습니다 시청 해 주셔서 감사합니다 안녕하세요, 저는 Maggie Du이고 SAS의 기계 학습 개발자이며 딥 러닝 및 컴퓨터 비전 API 이 비디오에서는 DLPy라고하는 SAS 고급 딥 러닝 Python API를 사용하여 게임에서 축구 선수를 추적하는 이미지 분할 문제를 해결하는 방법을 보여줍니다 각 플레이어에 대한 통계를 제공합니다

코치에 의한 경기 후 분석과 같은 여러 목적으로 통계를 사용할 수 있습니다 팬들에게 증강 게임 시청 경험을 제공합니다 이미지 분할은 이미지를 의미 적으로 의미있는 부분으로 분할하려고 시도합니다 각 부분을 사전 정의 된 레이블 중 하나로 분류합니다 따라서 픽셀 수준에서 이미지를 이해하는 새로운 방법입니다

예를 들어이 이미지에는 개, 고양이 및 배경의 세 가지 클래스가 있습니다 따라서 우리는 각 픽셀에 어떤 클래스가 속하는지를 나타내는 특정 색상을 부여합니다 전반적으로 각 객체의 정확한 경계를 얻을 수 있습니다 시작하자 필요한 모듈을로드 한 후 데이터 세트를로드하려고합니다

우리는 축구 경기의 이미지를 예로 들어 170 이미지가 포함 된 모두 256 * 256으로 조정되었습니다 다음은 원시 이미지와 해당 주석의 시각화입니다 이미지에는 축구 선수, 축구 공 및 배경의 세 가지 다른 객체가 있습니다 따라서 주석 이미지에는 세 가지 색상이 포함됩니다 그런 다음 데이터 세트를 학습 데이터, 유효성 검사 데이터 및 테스트 데이터로 무작위로 나눕니다

다음으로 SAS DLPy를 사용하여 U-Net 모델을 구축하려고합니다 이 대칭 모델은 인코딩과 디코딩의 두 부분으로 볼 수 있습니다 기능 크기가 가장 작은 레이어 인 병목 현상 레이어로 분할됩니다 인코딩 부분에서 풀링 레이어를 사용하여 다운 샘플링을 수행하여 기능을 추출합니다 디코딩에서 입력 컨볼 루션 레이어를 사용하여 입력 이미지에서 업 샘플링 학습 된 정보를 재구성하는 부분

또한 텐서를 직접 결합하는 4 개의 연결 레이어를 모델에 추가했습니다 두 개의 다른 레이어에서 이전의 특정 정보를 쉽게 상속받을 수 있습니다 층 SAS DLPy는 사전 정의 된 U-Net 모델을로드하는 기능을 제공합니다 인코딩을위한 4 개의 풀링 계층 및 디코딩을위한 4 개의 전치 컨볼 루션 계층

축구 경기 데이터 모델에는 3 천 4 백만 개가 넘는 매개 변수가 포함되어 있습니다 SAS DLPy API를 사용하여 계층별로 고유 한 U-Net 모델을 만들 수도 있습니다 병목 현상 레이어의 크기 및 컨볼 루션 수와 같은 기능을 쉽게 결정할 수 있습니다 두 풀링 레이어 사이에 원하는 레이어 아키텍처가 구축되면 교육 데이터를 사용하여 모델을 교육하고 유효성을 검사 할 수 있습니다 검증 데이터 사용

교육이 완료된 후 테스트 데이터를 사용하여 모델의 성능을 테스트 할 수 있습니다 새로운 이미지를 수행합니다 스코어링 메트릭을 확인하거나 예측을 직접 시각화 할 수 있습니다 이 예에서 잘못된 분류 비율은 056 %로 65,536 픽셀 중 약 360 픽셀 만 잘못 레이블이 지정됩니다 두 번째 방법은 간단합니다

여기에 원시 이미지, 주석 및 예측을 나란히 놓고 모델의 성능을 확인하기 위해 모든 것을 쉽게 비교할 수 있습니다 첫 번째 열에는 원시 이미지가 표시되고 가운데 열에는 실제 이미지가 표시됩니다 세 번째 열의 이미지는 예측에서 얻습니다 마지막 두 열 사이에는 약간의 차이 만 있습니다 이는 U-Net 모델을 의미합니다

이 데이터에 매우 효과적이었습니다 이 비디오에서는 SAS DLPy를 사용하여 이미지 세분화 모델을 신속하게 구축하고 이 모델에 대한 교육 및 스코어링 방법 SAS DLPy에는 훨씬 더 많은 기능이 포함되어 있으므로 향후 사용 사례 시청 해 주셔서 감사합니다! 안녕하세요, 제 이름은 Xindian Long이고 컴퓨터 비전을위한 딥 러닝 알고리즘을 개발합니다 YOLO, Faster R-CNN, Mask R-CNN 등 SAS Deep Learning for Python (또는 DLPy)은 고급 Python과 함께 제공됩니다 사용자가 이러한 기능을 사용할 수 있도록하는 API

현재 그림 1과 같이 주로 물체 감지 방법에는 두 가지 유형이 있습니다 첫 번째 방법은 단일 단계 방법입니다 이 유형의 방법에서 경계 상자 지역화 및 객체 분류는 하나에서 수행됩니다 단계 YOLO, SSD와 같은 알고리즘이이 범주에 속합니다

두 번째 방법은 다단계 방법입니다 여기에는 두 가지 단계가 있습니다 첫 번째 단계에서 지역 제안 네트워크는 관심있는 직사각형 지역을 찾는 것입니다 객체를 포함 할 가능성이 높은 (또는 ROI) 두 번째 단계에서는 추가 회귀 및 분류를 수행하여 실제로 해당 지역에 개체가 있으며, 그렇다면 범주와 정확한 위치 그리고 모양입니다 Faster R-CNN, R-FCN과 같은 알고리즘이이 범주에 속합니다

첫 번째 범주의 알고리즘은 일반적으로 두 번째 범주의 알고리즘보다 빠릅니다 예를 들어 실시간 성능이 필요한 응용 프로그램이있는 경우 YOLO는 아마도 좋은 선택 Faster R-CNN과 같은 두 번째 범주의 알고리즘은 일반적으로 더 정확합니다 “Faster R-CNN”이라는 이름이 언급 된 다른 알고리즘보다 더 빠르게 실행되는 것은 아닙니다 이리

R-CNN 및 Fast R-CNN 알고리즘보다 이전 버전보다 훨씬 빠릅니다 그림 2는 앵커 박스의 중요한 개념을 보여줍니다 그들은 객체에 사용됩니다 YOLO와 Faster R-CNN의 탐지 알고리즘 이 개념을 이해하는 것이 매우 중요합니다 앵커 상자는 이미지의 여러 위치에있는 추상 상자이며 일반적으로 그리드 패턴

사전 정의 된 모양으로 사전 설정된 개수의 경계 상자를 예측하는 데 사용됩니다 각 위치에서 앵커 상자는 예측 된 위치의 초기 값으로 사용됩니다 모양에 따라 개체 크기 / 모양에 대한 사전 지식이 포함되어 있습니다 그림 2의 이미지에서이 한 위치에 많은 앵커 박스가 있음을 알 수 있습니다 상자마다 모양이 다른 물체를 감지합니다

예를 들어이 이미지에서 빨간색 앵커 상자는 사람을 감지하는 상자입니다 물론 최종적으로 감지 된 물체 모양은 원래 물체와 약간 다를 수 있습니다 알고리즘이 최적화하기 때문에 앵커 박스의 모양 그림 3은 Faster R-CNN 네트워크 아키텍처를 보여줍니다 DLPy를 사용하면 계층별로 구축 할 필요가 없습니다 알고리즘 이해를 돕기 위해 그것에 대해 이야기하고 있습니다

그것의 첫 번째 부분은 백본 네트워크입니다 백본 네트워크에는 일반적으로 많은 회선 레이어와 풀링 레이어가 포함되어 있습니다 입력 이미지에서 기능 맵을 추출합니다 널리 사용되는 백본 네트워크에는 VGG16, ShuffleNet 또는 ResNet 등이 있습니다 응용 프로그램 및 요구 사항에 따라 선택할 수 있습니다

지역 제안 네트워크는 백본 네트워크를 따릅니다 지역 제안 네트워크는 많은 제안 된 관심 지역을 출력합니다 개체를 포함 할 가능성이 높은 창입니다 지역 제안 네트워크는 지역 이전에 두 개의 특수한 컨볼 루션 레이어로 구성됩니다 제안서 계층

지역 제안서 레이어에 대해 사용자가 지정해야하는 중요한 매개 변수는 앵커 박스는 제안 될 수있는 형태의 범위를 대략 결정합니다 그 후에는 ROI 풀링 레이어입니다 관심 영역을 백본 네트워크 출력 인 페더 맵에 매핑합니다 창 내부의 픽셀 값을 추출하고 다른 크기의 하위 이미지를 형성합니다 ROI 풀링 레이어는 모든 하위 이미지의 크기를 같은 크기로 조정합니다

이것은 기능 맵의 모든 채널에 대해 수행됩니다 따라서 각 ROI마다 3D 데이터 배열을 얻습니다이를 텐서라고합니다 ROI 풀링 레이어의 출력에는 제안 된 각 영역마다 하나씩 많은 텐서가 포함됩니다 관심의

네트워크의 마지막 부분은 각 텐서와 ROI에서 독립적으로 작동하며 하나를 만듭니다 각 ROI에 대한 결정 세트 먼저, 두 개의 완전 연결된 레이어가 있으며 분류간에 공유됩니다 그리고 경계 상자 회귀 그런 다음 분류 헤더와 경계 상자 회귀 헤더가 있으며 각 헤더 앞에 하나의 완전히 연결된 레이어로 각각

우리 시스템에서 분류 헤더와 바운딩 박스 회귀 헤더는 모두 FastRCNN 계층에서 구현됩니다 빠른 R-CNN 네트워크 아키텍처에 대한 간략한 소개와 알고리즘의 방법 공장 이제 노트북을 볼 수 있습니다 먼저 CAS 서버에 연결합니다 조치 세트를로드하십시오

그리고 CAS 라이브러리를 빌드하십시오 그런 다음 DLPy 함수를 호출하여 앞에서 설명한 모델 아키텍처를 빌드해야합니다 Faster_RCNN 그런 다음 데이터 세트를로드하고 훈련 세트와 데이터 세트로 분할합니다 여기서 데이터 셋과 라벨을 그래픽으로 시각화하고 이미지와 경계를 볼 수 있습니다 상자 및 레이블

네트워크 교육을 위해 사전 훈련 된 가중치를로드하고 대상 열을 정의한 다음 가중치를 계속 최적화하려면 fit 함수를 호출하십시오 그런 다음 predict 함수를 호출하여 객체 위치와 범주를 예측할 수 있습니다 마지막으로 탐지 결과를 시각화 할 수 있습니다 이미지에서 감지 된 개체 주위에 상자가 그려져 있음을 알 수 있습니다 객체 카테고리 자신감뿐만 아니라 보여줍니다

이미지에서 감지 된 양을보십시오 이것이 데모의 끝입니다 DLPy와이 예제를 사용해보십시오 시청 해 주셔서 감사합니다! 안녕하세요, Guixian Lin입니다 저는 SAS의 컴퓨터 비전 딥 러닝 개발자입니다

여기에 DLPy로 알려진 SAS 고급 딥 러닝 Python API를 사용하여 가벼우면서도 강력한 컨볼 루션 뉴럴 네트워크를 쉽게 구축하고 훈련 할 수 있습니다 이미지 분류 문제에 대한 (또는 CNN) 이 예에서는 의류를 분류합니다 VGG16 및 ResNet50과 같은 인기있는 CNN은 이미지 분류에 널리 사용되었습니다 뛰어난 정확성을위한 작업 그러나 자원이 제한된 모바일 및 에지 장치의 경우 이러한 CNN은 종종 너무 유용하게 큰

얼굴 인식 및 자율 주행 차와 같은 실시간 애플리케이션에는 충분히 빠르지 않습니다 다음으로 세 가지 효율적인 CNN 인 MobilenetV1, ShufflenetV1 및 MobileNetV2를 소개합니다 이 인기 CNN보다 훨씬 작지만 정확도는 비슷합니다 CNN의 핵심 구성 요소는 컨볼 루션 레이어라는 것을 알고 있습니다 효율적인 MobileNet 및 ShuffleNet의 기본 아이디어는 표준 컨볼 루션을 대체하는 것입니다

가벼운 컨볼 루션 그림 21은 표준 컨벌루션과 깊이 분리형의 차이점을 보여줍니다 깊이 컨벌루션과 포인트 컨벌루션으로 구성된 컨벌루션 맨 윗줄에서 각 블록은 컨벌루션 필터를 나타내며 총 c2 필터가 있습니다

각 컨볼 루션 필터는 공간 정보를 필터링하고 채널 정보를 결합합니다 한 번의 단계로 입력 기능 이를 위해서는 각 컨볼 루션 필터의 깊이가 입력 피처의 깊이와 일치해야합니다 여기서 깊이는 c1입니다 레이어가 깊어 질수록 피쳐 맵의 깊이가 더 커지는 경우가 종종 있습니다

이러한 인기있는 CNN이 매우 큰 이유입니다 두 번째 행은 깊이 컨벌루션이 공간 정보를 채널별로 필터링 함을 보여줍니다 즉, 각 깊이 방향 컨볼 루션의 깊이는 레이어의 깊이에 관계없이 항상 1입니다 입니다 깊이 컨볼 루션은 입력 채널 만 필터링하므로 출력을 결합해야합니다

유용한 기능을 생성하는 기능 이것은 커널과의 표준 컨볼 루션 인 포인트 컨벌루션으로 수행 할 수 있습니다 1 회 1 회 표준 컨벌루션을 깊이 컨벌루션으로 교체 한 다음 점별 컨볼 루션에서 유사한 방식으로 피쳐와 패턴을 추출 할 수 있지만 모델 크기는 극적으로 감소했습니다 그림 22는 그룹 컨볼 루션을 설명합니다

채널을 여러 그룹으로 나누고 각각의 표준 컨볼 루션을 적용합니다 그룹 예를 들어 g 개의 그룹이있는 경우 모델 크기를 1 / g의 차수로 줄일 수 있습니다 그림 23은 MobileNetV1, ResNet50, ShuffleNetV1 및 MobileNetV2의 빌딩 블록을 보여줍니다

MobileNetV1의 경우 아키텍처는 VGG와 유사합니다 VGG의 표준 컨벌루션을 경량 깊이 컨볼 루션으로 대체합니다 포인트 컨벌루션이 뒤 따른다 ResNet은 종종 ResNet 블록으로 인해 VGG보다 성능이 우수하기 때문에 ShuffleNetV1 MobileNetV2는이 아이디어를 빌 렸습니다 둘 다 ResNet 블록의 표준 컨벌루션을 깊이 컨벌루션으로 대체하여 모델 크기

ShuffleNetV1은 포인트 컨벌루션을 그룹 컨볼 루션으로 대체하여 모델 크기 이제 경량 컨볼 루션이 더 작은 모델을 빌드하는 데 유용하다는 것을 이해합니다 및 ShuffleNet 다음으로 의류 소매 제품 데이터에 대한 성능을 보여 드리겠습니다 먼저 데이터 세트를로드하고 일부 이미지를 표시합니다

여기에는 6 개의 수업이 있으며 약 2,100 개의 이미지가 있습니다 다음으로, 우리는 훈련과 평가를 위해 무작위로 데이터를 훈련과 테스트로 나누었습니다 다른 CNN SAS DLPy는 다양한 사전 구축 네트워크 아키텍처를 제공합니다 매우 효과적입니다

여기서는 CNN을 구축하는 데 사용할 것입니다 MobileNetV1 아키텍처의 경우 다음과 같은 기본 매개 변수를 지정합니다 클래스 수 입력 이미지를 정규화하기위한 오프셋 및 스케일로 분류 될 수있다 또한 임의 뒤집기와 자르기를 사용하여 입력 이미지를 보강합니다 MobileNetV1 모델에는 축소 매개 변수 인 alpha가있어 출력 채널 수 옵티 마이저를 설정 한 후 모델을 학습 할 준비가되었습니다

훈련 로그는 많은 유용한 정보를 알려줍니다 여기에서 모델 매개 변수의 수가 8 백만임을 알 수 있습니다 대상에는 6 개의 클래스가 있습니다 훈련 손실과 오류로 반복 기록을 그릴 수 있습니다

16 오류 후 훈련 오류가 감소하고 수렴 함을 보여줍니다 최종 교육 오류는 약 54 %입니다 다음으로 테스트 데이터에서 모델 성능을 평가합니다 MobileNetV1 모델의 오류율은 5

3 %입니다 좋아요! 올바른 예측과 잘못된 예측을 통해 모델을 확인함으로써, 모델이 패턴을 배우고 합리적인 예측을한다는 것을 알 수 있습니다 다음으로 비슷한 단계를 따라 다른 CNN (ShuffleNetV1, MobileNetV2, 및 ResNet50 자세한 내용은 노트북을 참조하십시오 이 모델의 테스트 오류는 다음과 같이 요약됩니다

탁자 이 3 가지 경량 모델은 일반 모델보다 매개 변수가 훨씬 적습니다 ResNet50은이 소매 데이터의 정확성을 향상시킵니다 이 비디오에서 SAS DLPy를 사용하면 이러한 작은 크기를 빠르게 구축하고 훈련 할 수 있습니다 그러나 효율적인 CNN

앞으로의 작업에 이러한 모델을 적용 해 볼 수 있기를 바랍니다 시청 해 주셔서 감사합니다! 안녕하세요 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 딥 러닝과 함께 일할 수있는 특권이 있습니다 R & D 팀 컴퓨터 용 Python 및 DLPy 및 SAS Viya를 사용한 딥 러닝을위한 비디오 시리즈입니다

시력 이 특정 비디오에서는 패션에 태그를 지정하기 위해 멀티 태스킹 딥 러닝 모델을 훈련하고 싶습니다 품목 이제 기계 학습에서 종종 이미지를 가져 와서 레이블을 지정하고 단일 이미지를 만듭니다 옷의 종류를 분류하는 것과 같이지도 학습을 통해 하나의 작업을 분류합니다 드레스인가요? 티셔츠인가요? 벨트인가요? 그리고 색상과 같은 다른 의미 속성이 있고 입력 데이터에 레이블을 지정하면 색상을 분류하기 위해 회선 신경망과 같은 다른 것을 훈련하십시오

종종 고려해야 할 장점과 장점 중 하나는 단일 모델을 훈련시키는 것입니다 이 두 가지 과제를 동시에 동시에 배우는 것입니다 이를 유용한 정보를 활용하는 패러다임 인 멀티 태스킹 학습이라고합니다 전체적인 일반화를 향상시키기 위해 여러 관련 작업에서 즉, 모델이 더 잘 맞는 경향이 있습니다 한 작업에 대한 정보가 다른 작업을 예측하는 데 신뢰성을 부여 할 수 있기 때문에 좋습니다

단일 모델이 있으므로 두 모델을 사용하는 것보다 배포가 훨씬 쉽습니다 또는 더 많은 모델 따라서보다 쉽게 ​​관리하고 생산할 수 있습니다 시작하기 전에 멀티 태스킹 학습은 매우 강력합니다 자율 주행 차와 같은 많은 응용 분야에 사용됩니다

영어로 된 문서 모음이 있다고 가정 해 봅시다 프랑스어, 독일어 및 이탈리아어로 번역하고 싶습니다 거기에는 동시에 훈련하는 세 가지 작업이 있습니다 이제이 예에서는 이미 CAS 세션을 시작했습니다 DLPy를로드했으며 CAS 서버에 연결했습니다

가장 먼저 보여 드리고 싶은 것은 디스크에서 이미지를로드하고로드하는 방법입니다 이 예제에서는 하위 디렉토리에서 읽은 후 레이블을 재귀 적으로 가져옵니다 따라서 실제로 디스크에서 데이터를로드하여 메모리로 읽어들입니다 서브 디렉토리에서 레이블을 당기십시오 다음으로하는 일은 간단한 빈도 수이며 데이터가 상당히 균형을 이루고 있음을 알 수 있습니다 모든 작업에서 332 개에서 386 개의 관측치가 있습니다

이런 종류의 균형을 가질 필요는 없으며 분명히 콜스 나 메이 시즈, 우리는 더 많은 관측을 할 것이지만 이것은 간단한 데모입니다 이제 멀티 태스킹 딥 러닝을 수행하는 데있어 가장 까다로운 부분 중 하나는 작업 레이블 자체 이제 내가하고있는 첫 번째 일은 Pandas 데이터 프레임을 사용하고 getDummies를 단순히 이진 지표를 만듭니다 딥 러닝 패키지에는 정말 강력한 것이 있습니다 SAS 함수 컴파일러입니다

이를 사용하여 자신의 손실 함수를 찾을 수 있습니다 여기에서는 계산 된 vars를 사용하여 조건부로 추가 작업을 조건부로 정의하고 있습니다 여성, 의복의 조화는 무엇이며, 나는 그것을 다른 사람들과 다시 합류합니다 데이터 여기 간단한 머리를보고 몇 가지 관찰 만 살펴보면 이제 9 개의 총 작업이 동시에 진행되고 있음을 알 수 있습니다

여자를위한 것이 든 아니든 자, 여기에 이미지를 보여 드리는 예가 있습니다 그들이 어떻게 생겼는지 딥 러닝의 많은 머신 러닝 문제와 마찬가지로 데이터 크기도 조정합니다 200×200으로 설정하고 CAS 서버의 모든 작업자 노드에서 데이터를 섞습니다 여기서 20 %의 샘플을 작성하고 있음을 명심하십시오 이것은 홀드 아웃 데이터 세트 테스트이며, 나머지 80 %의 데이터를 사용하여 학습합니다

에 모델 이제이 시점에서 직접 비순환 그래픽 인 기본 아키텍처를 정의하겠습니다 네트워크를 위해 그리고 DL Plot을 사용하여이를 수행하고 있습니다 입력 레이어, 컨볼 루션 레이어, 배치 규범 풀링 및 밀집 레이어가 있습니다

그러나이 네트워크 플롯을 보면 기본적으로 하나의 아키텍처가 있음을 알 수 있습니다 그리고 그 아키텍처는 우리가 시도하는 모든 결과 작업과 공유됩니다 예측하십시오 모든 작업에 대해 동일한 네트워크를 가질 필요는 없습니다 이것은 기본 예이며 여기에서 실제로 잘 작동합니다 예측하려는 각 작업에 대해 서로 다른 네트워크 아키텍처를 가질 수 있습니다

아키텍처를 정의한 후 모델을 학습하려고합니다 이 예에서는 운동량과 같은 매우 기본적인 최적화 방법을 사용하고 있습니다 60 개의 EPICS를하고 있는데 훈련 옵션을 정의하고 싶습니다 이제 partition이 0 인 곳을 사용하고 있습니다 그것은 훈련 데이터의 80 % 만 가져올 것입니다

모델 무게 등 나중에 득점을 할 수 있습니다 GPU에서도 이것을 훈련하고 있습니다 딥 러닝의 곱셈 특성으로 인해 네트워크를 더 빨리 훈련시킬 수 있습니다 모델과 더 빠른 실험

다양한 최적화 방법을 시도해보고 궁극적으로 최상의 모델을 얻을 수 있습니다 더 빠르게 여기에 약간의 출력이 있지만, 내가 시도한 것은 이것을 이것에 요약합니다 반복 플롯 우리가 60 번의 EPICS를했다는 것을 기억하십시오 약 13 ~ 14 개의 EPICS 어딘가에서 쇠퇴와 상실과 시대를보고 있습니다

모델이 실제로 안정화 된 것 같습니다 나는 실제로 그것을 자랑스럽게 생각합니다 좋아 보인다 테스트 데이터와 비교하여 먼저 확인하겠습니다 이 모델은 훈련을 위해 개발되었습니다 이제 데이터의 20 %를 부분 집합 화하겠습니다

훈련에서 절약 한 모델 가중치를 사용하여 해당 데이터의 점수를 매길 것입니다 그리고 여기서 볼 수 있듯이 모든 작업에 대해 평균 제곱 오차가 매우 낮습니다 좀 더 세분화되고 실제로 혼동 행렬과 같은 것을보고 모델이 테스트 데이터에 얼마나 잘 맞는지 그런데이 예측값 p_는 테스트 데이터에 대한 예측값을 나타냅니다 내가 훈련 한 모델에 나는 판다에서 약간의 일을한다 파이썬을 DLPy와 똑바로 혼합하는 것이 좋습니다

그리고 9 가지 작업 각각에 대한 분류 행렬 인 혼동 행렬을 얻습니다 행은 실제 값을 나타내고 열은 예상 값을 나타냅니다 벗어난 대각선에서, 우리가 잘못한 곳입니다 여기에 검은 색은 4 개, 파란색은 4 개, 빨간색은 1 개, 우리는 다른 수업을 살펴보고 정말 잘하고 있습니다 마지막으로, SAS에서 딥 러닝의 비밀 소스 조각 중 하나는 ASTORE

여기에서 실제로 모델을 이진 파일에 저장하여 배치 스코어링을 수행 할 수 있습니다 스트리밍 분석을 사용하여 점수를 매기거나 다른 모델과의 작업을 위해 모델을 ONNX로 가져 오기 PyTorch 및 TensorFlow와 같은 패키지 여기에이 작업을 완료하고 모델을 저장했으며 다음 비디오에서는 실제로 스트리밍 분석을 사용하여이 모델의 점수를 매기는 방법을 살펴 보겠습니다 결론적으로, 멀티 태스킹 딥 러닝은 실제로 여러 개를보고 예측할 수있게합니다 동시에 작업

DLPy를 사용하면 간단합니다 다음 비디오에서 to기를 기대합니다 Python 및 SAS Viya Computer Vision Series를 사용한 딥 러닝에 오신 것을 환영합니다 제 이름은 웨인 톰슨입니다 저는 SAS의 데이터 과학자이며 SAS Deep과 함께 일합니다

학습 R & D 팀 이 비디오에서는 DLPy의 자매 인 ESPPy를 사용하여 멀티 태스킹을하고 싶습니다 딥 러닝 모델 이제 이미 멀티 태스킹 딥 러닝 모델을 훈련했습니다 이미지를 모아서 9 가지 작업을 예측하고 동시에 수행 할 수있는 모델을 개발했습니다

이 예제에서하고 싶은 것은 ESPPy를 사용하는 것입니다 또한 SAS 이벤트 스트림 처리 창에 연결할 수 있습니다 프로젝트를 구축하고 창과 상호 작용하며 모델을 배포합니다 SAS Event Stream Processing은 정말 멋집니다 여기에는 클러스터링에서 시계열 분석에 이르는 여러 스트리밍 작업이 포함됩니다

감정 분석 또는 공동 필터링과 같은 작업도 수행 할 수 있습니다 하지만이 데모에서는 이미지 처리 창과 온라인 창을 사용하겠습니다 딥 러닝 멀티 태스킹 모델을 배포 할 수 있습니다 이제 가장 먼저해야 할 일은 실제로 프로젝트를 만드는 것입니다 이 멀티 태스크를 호출하고 실제로이 셀을 실행하겠습니다

그리고 다음으로하고 싶은 것은 프로세스 흐름이나 관로 실제로 이미지를 읽으려면 소스 창이 필요합니다 우리가 일부 교육에서했던 것처럼 모델을 훈련 할 때마다 일반적으로 이미지 따라서 점수를 매길 때 20에서 20으로 크기를 조정하고 이미지 처리를 사용하겠습니다 그렇게하는 창

다음은 모델을 가져와야한다는 것입니다 모델을 학습하고 ASTORE로 저장 했으므로 모델 리더가 있습니다 그것을 읽을 수있는 창 그리고 실시간으로 점수를 생성하는 득점 창이 있습니다 그리고 보면, 프로젝트는 다음과 같습니다

나는 데이터를 읽고 이미지를 표준화하고 점수를 생성합니다 그런 다음 실제로 프로젝트를로드하고 몇 개의 출력 테이블을 설정하겠습니다 여기에 쓸 것입니다 이제 첫 번째 노트북을 사용하여 실제로 노트북을 정의하기 때문에 별도의 노트북이 있습니다 ESP 프로젝트

이 책에서는 간단히 게시하고 점수 매기기 프로세스를 시작하겠습니다 그래서 저는 팔고이 모든 것을 실행합니다 실제로 모델의 점수를 매 깁니다 다시 여기로 돌아가서 이제 이벤트 스트림 처리 엔진을 사용하겠습니다 득점

실제로 예측 확률과 함께 태그가 지정되고 라벨이 지정된 이미지가 표시되는 것을 볼 수 있습니다 작동하는 예제를 제공하는 작은 세트입니다 수면 시간은 03입니다 이벤트 스트림 처리 엔진은 실제로 초당 최대 50 프레임을 수행 할 수 있습니다

시원한 이 데모에서는 이미 멀티 태스킹 학습을 위해 개발 된 모델을 검색을 용이하게하기 위해 스트리밍 분석을 사용하여 배포 할 수있었습니다 콜이나 메이시 같은 사람 교육용 DLPy와 함께 ESPPy를 사용하면 실제로 쉽게 수행 할 수 있습니다

Meet the Future :AI and Machine Learning | Overview

또 다른 디지털 미디어 대학 인증 프로그램 인 "Fun Robot"에 오신 것을 환영합니다 “Fun Robot”코스는 3-5 학년 학생들을 위해 작성되었습니다

그러나 어린 학생들도 과정 내용을 받아 들일 가능성이 높습니다 "재미 로봇"코스는 오늘날 로봇의 실제 사용입니다 그리고 로봇 사용의 미래에 대한 소개 학생들은 로봇과 공학의 실제 적용에 이러한 기본 사항을 사용합니다 자신의 로봇을 상상하고 디자인하기 시작하려면 그리고 가상 로봇을 조작하는 프로그램을 작성하십시오

이 과정의 많은 교실 활동은 "연결 해제"활동입니다 즉, 화면이나 다른 전자 기기를 사용할 필요가 없습니다 대신 이러한 교실 활동은 대면 상호 작용 및 협업에 의존합니다 학생들은 실제 재료를 사용하여 자신의 독창적 인 아이디어를 모델로 복원합니다 디자인 사고 과정은이 과정의 핵심입니다

학생들은 로봇 공학으로 해결할 수있는 문제를 정의합니다 생각하고 사용자, 고객 및 소비자를 이해하려고 노력하십시오 그런 다음 실제 요구에 맞는 로봇을 설계하고 제작하십시오 가상 로봇을 제어하는 ​​방법을 알아낼 때 학생들은 컴퓨터 사고를 사용하여 지시 사항을 설계합니다 현재 많은 산업 분야에서 높은 인건비 및 노동력 부족과 같은 문제에 직면하고 있습니다

가까운 미래에 많은 경제가 고령화에 직면 할 것입니다 로봇은 이러한 문제를 해결하는 데 중요한 역할을합니다 또한 Digital Media Academy의 재미있는 로봇 공학 과정은 학생들이 미래로 나아가는 첫 번째 단계입니다 Digital Media Academy 인증 프로그램은 교사와 학생을위한 단계별 교육을 제공합니다 이러한 교육 자료를 최대한 활용하려면 아래 단계에 따라 수업을 준비하는 것이 좋습니다

1 단계 : 교사 리소스 모드에서 코스 개요 인터페이스 열기 2 단계 : 이제 코스 설명 및 코스 목표를 볼 수 있습니다 이러한 목표를 명심하면 가르 칠 때 과정의 초점에 집중하는 데 도움이됩니다 재미있는 로봇 코스에서 학생들은 : 로봇이 무엇인지 이해하고 정의하십시오 로봇의 주요 부분과 함께 작동하는 방식을 식별하십시오 엔지니어링 프로세스를 사용하여 기계 및 간단한 로봇 프로토 타입을 구축하는 방법; 계산적 사고를 사용하여 가상 로봇을 제어하는 ​​방법; 미래의 로봇이 생각하도록 디자인 사고를 사용하는 방법

3 단계 : 과정 개요에는 교사 안내서 및 특정 교육 리소스가 있습니다 코스 자료는 코스에 나타나는 순서대로 배열됩니다 온라인 pdf 버전의 교사 안내서를 사용할 수 있지만 교사 안내서를 다운로드하거나 인쇄하는 것이 좋습니다 과정의 각 부분에 대한 구체적인 내용을 정리할 수 있도록 도와줍니다 4 단계 : 수업에 필요한 과정 자료와 도구를 봅니다

재미있는 로봇 공학 과정을 위해서는 학생들에게 다음 자료를 제공해야합니다 코스의 모델 구성 부분을 완성하려면 가위, 테이프 또는 접착제 펜과 같은 도구를 준비해야합니다 네트워크에 연결할 수있는 컴퓨터 나 태블릿도 필요합니다 헤드폰 (학생들이 수업 시간에 코스 비디오를 독립적으로 시청하도록하려는 경우) 수업 시간에이 비디오들을 동시에 볼 수도 있습니다

이 과정에서 사용되는 사이트 중 하나에는 Flash 소프트웨어를 설치하기위한 컴퓨터가 필요하고 다른 사이트에는 Java 소프트웨어가 필요합니다 다른 웹 사이트를 사용하도록 선택할 수도 있습니다 이 과정을 수행하려면 (교사 안내서에 제공된 조언을 참조하십시오) 로봇은 매우 전문적인 분야이지만 그러나 Fun Robotics 과정에 포함 된 많은 지식은 핵심 과목에 통합 될 수 있습니다 디자인 사고 및 전산 사고 모델의 사용은 로봇과 유사한 기술 프로젝트로 제한되지 않습니다

컴퓨터 사고의 핵심은 복잡한 작업에 접근하고 분해하는 사고 방식입니다 컴퓨터 사고를 이해하는 학생들은이 접근 방식을 사회 과학 연구 계획에 적용 할 수 있습니다 서류 정리, 행사 준비, 또는 효과적인 과학 실험을 설계하십시오 디자인 사고 방식은 사용자 요구에 맞는 제품 또는 솔루션을 만들도록 설계되었습니다 디자인 사고는 인기있는 핫 제품을 만드는 데 사용될 수 있습니다

또한 안전하고 경치 좋은 공원을 설계하는 데 사용될 수 있습니다 이동성과 사회적 상호 작용을 극대화하는 오래된 아파트 교실에서 디자인 사고는 학생들이 참여하는 모든 프로젝트 기반 학습 활동에 적용됩니다 과정의 각 부분에서 학생들이 무엇을 배우게되는지 살펴 보겠습니다 재미있는 로봇 코스의 첫 번째 부분에서 학생들은 로봇과 다른 장치의 차이점을 인식하는 법을 배웁니다

오늘날 로봇의 뛰어난 응용 결과를 이해하십시오 재미있는 로봇 코스의 두 번째 부분에서 학생들은 엔지니어링 프로세스를 탐색하고 로봇 엔지니어가 어떻게 문제를 해결할 수 있는지 배웁니다 이 과정의 세 번째 부분은 학생들이 로봇 모델을 만드는 컴퓨터 사고의 사용에 중점을 둡니다 그런 다음 가상 로봇을 제어하도록 프로그래밍하는 방법을 배웁니다 과정의 마지막 부분-4 부- 학생들에게 실제 세계에서 로봇의 잠재적 응용 분야를 이해하고이 요구를 충족시키는 로봇을 설계하도록 요청하십시오

다음 비디오에서는 Fun Robotics 과정의 각 과정 활동에 대한 모든 세부 정보를 살펴 봅니다 강의 준비를 돕습니다 디지털 미디어 아카데미 | 인증 프로그램 이 자료는 귀하와 학생들에게 모든 범위의 기술 지원을 제공합니다

Learn Machine Learning – Uncover business insights and create solutions

머신 러닝은 많은 양의 데이터를 사용하고 있습니다 패턴 또는 경향 분석 예측 모델링으로 나옵니다

따라서 많은 조직이 그들의 비즈니스 사례 우리 회사 에서처럼 기계 학습을 사용합니다 교통 혼잡 예측 모델링을 수행합니다 또한 상업 세계에서는 추천을하는 기계 학습 고객 데이터의 세분화 고객 접점에서 우리는 알고 싶다 우리는 예측하고 싶습니다 또는 우리는 예측하고 싶습니다 우리 고객의 선호는 무엇입니까 고객 여정을 기반으로 거기서부터 상향 판매를 할 수 있습니다 많은 추천 모델링을 소개하는 교차 판매

예, 모두 기계 학습을 배워야합니다 당신의 회사는 언젠가 기계 학습 주도 회사 우리는 두 가지 방식을 모두보고 있기 때문에 데이터 중심 및 비즈니스 중심 그래서 우리는 중간을 칠 것입니다 내가 항상 관련된 균형점은 기계 학습 많은 오픈 소스를 사용할 수 있습니다 오늘날 사용 가능한 도구 기계 학습을 위해 예를 들어 텐서 플로우가 있습니다 파이 토치 파이썬 많은 함께 제공 유용한 머신 러닝 라이브러리 당신이 구축하기에 충분합니다 머신 러닝 모델

안녕하세요, Theng Hui입니다 기계 학습 스파크에서 가르 칠 것입니다

Neural Networks and Deep Learning: Crash Course AI #3

안녕하세요, Jabril입니다 CrashCourse AI에 오신 것을 환영합니다! 지도 학습 과정에서 John Green-bot에게 퍼셉트론을 사용하여 배우도록 가르쳤습니다

하나의 뉴런을 모방하는 프로그램 그러나 우리의 뇌는 1 조 개의 뉴런으로 의사 결정을합니다 그들 사이에! 여러 퍼셉트론을 함께 연결하면 실제로 AI로 더 많은 것을 할 수 있습니다 인공 신경 네트워크라는 것을 만듭니다 신경망은 이미지 인식과 같은 특정 작업에 대해 다른 방법보다 낫습니다

그들의 성공 비결은 숨겨진 층이며, 수학적으로 매우 우아한 이 두 가지 이유 때문에 신경망이 가장 지배적 인 머신 러닝 중 하나 인 이유 오늘날 사용되는 기술 [INTRO] 얼마 전까지 만해도 AI의 큰 과제는 인식과 같은 실제 이미지 인식이었습니다 고양이의 개, 보트의 비행기의 차 우리가 매일 그렇게해도 컴퓨터에는 정말 어려운 일입니다

컴퓨터가 0과 1을 일치시키는 것과 같은 문자 비교를 잘하기 때문입니다 한 번에 컴퓨터는 픽셀을 일치시켜 이러한 이미지가 동일하다는 것을 쉽게 알 수 있습니다 그러나 AI 이전에는 컴퓨터에서 이러한 이미지가 같은 개라는 것을 알 수 없었습니다 서로 다른 이미지가 모두 개라고 말할 희망이 없었습니다

그래서 Fei-Fei Li라는 교수와 다른 머신 러닝 및 컴퓨터 비전 그룹 연구원들은 연구 커뮤니티가 이미지를 인식 할 수있는 AI를 개발하도록 돕고 싶었습니다 첫 번째 단계는 실제 사진으로 분류 된 거대한 공개 데이터 세트를 만드는 것이 었습니다 이렇게하면 전 세계의 컴퓨터 과학자들이 다른 알고리즘을 고안하고 테스트 할 수 있습니다 이 데이터 세트를 ImageNet이라고했습니다 3,300 만 개의 레이블이있는 이미지가 있으며 5,247 개의 중첩 된 명사 범주로 분류됩니다

예를 들어, "개"레이블은 "국내 동물"아래에 중첩되어 있으며 "동물" 데이터를 안정적으로 라벨링하는 데있어서 인간은 최고입니다 그러나 한 사람이이 라벨을 모두 수행 한 경우, 수면 또는 간식은 1 년 이상 걸릴 것입니다! 따라서 ImageNet은 크라우드 소싱을 사용하고 인터넷의 힘을 활용하여 저렴하게 보급했습니다 수천 명의 사람들 사이의 일 데이터가 완성되면 연구원들은 2010 년에 연례 경쟁을 시작하여 이미지 인식에 최고의 솔루션을 제공합니다

토론토 대학교 (University of Toronto)의 대학원생 인 Alex Krizhevsky를 입력하십시오 2012 년에 그는 비슷한 솔루션이지만 신경망을 ImageNet에 적용하기로 결정했습니다 과거에는 성공하지 못했습니다 AlexNet이라고하는 그의 신경망에는이를 차별화하는 몇 가지 혁신이있었습니다 그는 숨겨진 레이어를 많이 사용했는데 잠시 후에 도착할 것입니다

또한 신경망이 수행하는 모든 수학을 처리하기 위해 더 빠른 계산 하드웨어를 사용했습니다 AlexNet은 차기 최고의 접근 방식을 10 % 이상 능가했습니다 20 개의 이미지 중 3 개만 잘못되었습니다 학년으로 볼 때, B는 견고했고 다른 기술은 기음 2012 년 이후, 신경망 솔루션은 연간 경쟁을 극복했으며 결과는 계속 나아지고 있습니다

또한 AlexNet은 신경망에 대한 폭발적인 연구를 시작했습니다 이미지 인식 이상의 많은 것들에 적용됩니다 신경망이 이러한 분류 문제에 어떻게 사용될 수 있는지 이해하기 위해 먼저 아키텍처를 이해합니다 모든 신경망은 입력 레이어, 출력 레이어 및 사이에 숨겨진 레이어 여러 가지 배열이 있지만 클래식 다층 퍼셉트론을 사용합니다 예로서

입력 계층은 신경망이 숫자로 표현 된 데이터를 수신하는 곳입니다 각 입력 뉴런은 데이터의 일부 특성 인 단일 기능을 나타냅니다 이미 많은 숫자에 대해 이야기하고 있다면 기능은 간단합니다 도넛에 설탕 그램처럼 그러나 실제로는 거의 모든 것이 숫자로 변환 될 수 있습니다

소리는 음파의 진폭으로 표현 될 수 있습니다 따라서 각 기능에는 순간의 진폭을 나타내는 숫자가 있습니다 단락의 단어는 각 단어가 몇 번 나타나는지 나타낼 수 있습니다 따라서 각 기능은 한 단어의 빈도를 갖습니다 또는 강아지의 이미지에 라벨을 지정하려는 경우 각 지형지 물은 정보를 나타냅니다

약 픽셀 따라서 회색조 이미지의 경우 각 기능에는 픽셀의 밝기를 나타내는 숫자가 있습니다 입니다 그러나 컬러 이미지의 경우 각 픽셀을 빨간색의 양, 녹색과 파란색으로 결합되어 컴퓨터 화면의 모든 색상을 만들 수 있습니다 지형지 물에 데이터가 있으면 각 계층은 다음 계층의 모든 뉴런에 해당 번호를 보냅니다

숨겨진 레이어라고합니다 그런 다음 각 숨겨진 레이어 뉴런은 얻는 모든 숫자를 수학적으로 결합합니다 목표는 입력 데이터에 특정 구성 요소가 있는지 여부를 측정하는 것입니다 이미지 인식 문제의 경우 이러한 구성 요소는 중앙의 특정 색상, 곡선 일 수 있습니다 상단 또는 이미지에 눈, 귀 또는 털이 포함되어 있는지 여부

이전 에피소드의 간단한 퍼셉트론처럼 각각 예 또는 아니오로 대답하는 대신 숨겨진 레이어의 뉴런은 약간 더 복잡한 수학을 수행하고 숫자를 출력합니다 그런 다음 각 뉴런은 다음 레이어의 모든 뉴런에 번호를 보냅니다 다른 숨겨진 레이어 또는 출력 레이어 일 수 있습니다 출력 레이어는 최종 숨겨진 레이어 출력이 수학적으로 결합되는 곳입니다 문제에 대답하기 위해

이미지를 개로 라벨링하려고한다고 가정 해 보겠습니다 단일 답변을 나타내는 단일 출력 뉴런이있을 수 있습니다 이미지는 개의 이미지입니다 또는 아닙니다 그러나 많은 이미지에 라벨을 붙이는 등의 답변이 많을 경우 많은 출력 뉴런이 필요합니다 각 출력 뉴런은 각 레이블의 확률에 해당합니다 (예 : 개, 자동차, 스파게티 등

그리고 우리는 가장 높은 확률로 답을 선택할 수 있습니다 신경망, 그리고 실제로 모든 AI의 핵심은 수학입니다 그리고 나는 그것을 얻는다 신경망은 일종의 블랙 박스처럼 보이고 수학을하고 답을 내뱉습니다 중간 레이어는 숨겨진 레이어라고도합니다! 그러나 우리는 모범을 통해 일이 일어나고있는 요점을 이해할 수 있습니다

오 존 그린 봇? John Green-bot에게 훈련 된 신경망을 갖춘 프로그램을 제공합시다 회색조 사진에서 개를 인식합니다 이 사진을 먼저 보여 주면 모든 기능에 0과 1 사이의 숫자가 포함됩니다 한 픽셀의 밝기로 그리고이 정보를 숨겨진 레이어로 전달합니다 이제 하나의 숨겨진 레이어 뉴런에 초점을 맞추겠습니다

신경망이 이미 훈련되었으므로이 뉴런은 다음과 같은 수학 공식을 갖습니다 중앙의 특정 곡선과 같이 이미지의 특정 구성 요소를 찾습니다 코 상단의 곡선 이 뉴런이이 특정 모양과 반점에 초점을 둔다면 실제로 신경 쓰지 않을 것입니다 다른 곳에서 일어나고 있습니다 따라서 대부분의 피쳐의 픽셀 값에 0을 곱하거나 칭량합니다 0 여기에서 밝은 픽셀을 찾고 있기 때문에이 픽셀 값에 긍정적 인 무게

그러나이 곡선은 아래의 어두운 부분으로 정의됩니다 뉴런은이 픽셀 값에 음의 가중치를 곱합니다 이 숨겨진 뉴런은 입력 뉴런과 스 퀴시의 모든 가중치 픽셀 값을 추가합니다 결과는 0과 1 사이입니다 마지막 숫자는 기본적으로이 뉴런 사고의 추측을 나타냅니다

개 코라고 불리는 곡선이 이미지에 나타납니다 다른 숨겨진 뉴런은 다른 성분과 같은 다른 성분을 찾고 있습니다 이미지의 다른 부분에서 커브 또는 퍼지 텍스처 이러한 뉴런이 모두 추정치를 다음 숨겨진 레이어로 전달하면 해당 뉴런 더 복잡한 구성 요소를 찾도록 교육받을 수 있습니다 마찬가지로, 하나의 숨겨진 뉴런은 개 코가 될 수있는 모양이 있는지 확인할 수 있습니다

모피 텍스처를 찾은 이전 레이어의 데이터에는 신경 쓰지 않을 것입니다 따라서 0에 가까워 지거나 0에 가까워집니다 그러나“코의 꼭대기”와“하단을 찾은 뉴런에 대해 실제로 신경을 쓸 수 있습니다 코의 "와"콧 구멍 " 그것은 큰 양수로 가중치를 부여합니다

다시, 그것은 이전 레이어 뉴런의 모든 가중치를 합산합니다 값을 0에서 1 사이로 설정하고이 값을 다음 레이어로 전달하십시오 그것은 수학의 요지이지만 우리는 조금 단순화하고 있습니다 신경망은 실제로 "코"와 같은 아이디어를 이해하지 못한다는 것을 아는 것이 중요합니다 또는 "눈꺼풀" 각 뉴런은 주어진 데이터를 계산하고 특정 플래그를 지정합니다 빛과 어둠의 패턴

몇 개의 숨겨진 레이어가 추가되면 하나의 뉴런으로 출력 레이어에 도달합니다! 따라서 이전 레이어의 데이터를 한 번 더 가중 한 후 이 이미지가 개라면 출력 뉴런, 네트워크는 좋은 추정을해야합니다 즉, John Green-bot은 결정을 내려야합니다 John Green-bot : 출력 뉴런 값 : 093 이것이 개일 확률 : 93 %! John Green Bot 안녕하세요! 신경망이 하나의 이미지 만 처리하는 방법을 생각하면 왜 더 명확 해집니다 AI에는 빠른 컴퓨터가 필요합니다

앞에서 언급했듯이 컬러 이미지의 각 픽셀은 3 개의 숫자로 표시됩니다 빨강, 초록, 파랑이 많이 있습니다 따라서 1000 x 1000 픽셀 이미지를 처리하려면 작은 3 x 3 인치입니다 사진, 신경망은 3 백만 가지 기능을 볼 필요가 있습니다! AlexNet은이를 달성하기 위해 6 천만 개 이상의 뉴런이 필요했습니다 계산하는 데 많은 시간이 걸릴 수 있습니다

문제를 해결하기 위해 신경망을 설계 할 때 명심해야 할 사항입니다 사람들은 더 깊은 네트워크 인 더 깊은 네트워크를 사용하는 것에 정말 흥분합니다 숨겨진 레이어, 딥 러닝을 수행합니다 딥 네트워크는 입력 데이터를 더 복잡한 방식으로 결합하여 더 복잡한 구성 요소를 찾을 수 있습니다 까다로운 문제를 해결하십시오

그러나 숨겨진 계층이 많을수록 10 억 개의 계층과 같은 모든 네트워크를 만들 수는 없습니다 더 많은 수학은 우리가 더 빠른 컴퓨터가 필요하다는 것을 의미합니다 또한 네트워크가 깊어 질수록 네트워크가 제공하는 이유를 이해하기가 더 어려워집니다 그것이하는 대답 첫 번째 숨겨진 레이어의 각 뉴런은 입력 데이터의 특정 구성 요소를 찾고 있습니다 그러나 더 깊은 계층에서 이러한 구성 요소는 인간이 묘사하는 방식에서 더 추상적입니다

같은 데이터 자, 이것은 큰 일처럼 보이지는 않지만 신경망이 우리의 대출을 거부하는 데 사용된다면 예를 들어, 우리는 이유를 알고 싶습니다 어떤 기능이 차이를 만들어 냈습니까? 그들은 최종 답변을 어떻게 평가 했습니까? 많은 국가에서 이러한 종류의 결정이 왜 필요한지 이해할 수있는 법적 권리가 있습니다 만들어졌다 그리고 신경망은 우리 삶에 대한 점점 더 많은 결정을 내리는 데 사용되고 있습니다 예를 들어 대부분의 은행은 신경망을 사용하여 사기를 감지하고 방지합니다

자궁 경부암에 대한 Pap 테스트와 같은 많은 암 테스트는 신경망을 사용하여 현미경으로 세포의 이미지, 암의 위험이 있는지 여부를 결정합니다 신경망은 Alexa가 어떤 노래를 연주하고 싶은지 이해하고 Facebook에서 사진 태그를 제안하는 방법 이 모든 일이 어떻게 일어나는지 이해하는 것이 세상에서 인간이되는 데 정말로 중요합니다 지금, 당신은 당신의 자신의 신경 네트워크를 구축할지 여부 그래서 이것은 많은 큰 그림 자료 였지만, 우리가 John Green-bot에게 준 프로그램은 이미 개를 인식하도록 훈련되었습니다 뉴런은 이미 입력에 가중치를 부여하는 알고리즘을 가지고있었습니다

다음에는 신경망에서 사용되는 학습 과정에 대해 이야기하겠습니다 모든 뉴런에 적절한 가중치를 부여하고 왜 제대로 작동하기 위해 많은 데이터가 필요한지 Crash Course Ai는 PBS Digital Studios와 연계하여 제작됩니다 모든 크래시 코스를 모든 사람에게 무료로 제공하려면 영원히 참여하십시오 Patreon의 커뮤니티

신경망 뒤의 수학에 대해 더 자세히 알고 싶다면이 비디오를 확인하십시오 충돌 코스 통계에서 그들에 대해

Breakthroughs in AI and Machine Learning help solve health care challenges

내 사랑하는 이모가 유방암으로 인해 목숨을 잃었고 나에게 잊을 수없는 인상 개인 드라이브와 혁신적인 정신은 Anant Madabhushi 교수의 혁신적인 발견 Case Western Reserve University

내 연구는 인공 사용에 중점을 둡니다 질병의 존재를 진단하는 지능 및 기계 학습 또한 치료를 개인화하십시오 즉, Madabhushi와 그의 팀 50 명 이상의 연구자들이 컴퓨터 교육을 넘어서 스캔 또한 제공 할 치료법을 결정하는 데 도움이되는 기술을 적용합니다 누가 더 공격적인 질병을 앓고 있는지 예측할 수 있습니다

따라서 수술 만 필요할 수도있는 화학 요법이 필요합니다 또한 스캔에서 발견 된 문제가 필요한지 확인하는 방법을 식별했습니다 확고한 진단을위한 더 침습적 인 절차 모두 폐가 무섭다 암 많은 사람들이 매년 폐암 검진을 받고 있으며 그들 중 많은 곳에서 폐 결절을 찾으십시오

우리가 가진 경향이있는 환자에서 찾은 것 암성 결절 결절을 공급하는 혈관이 매우 꼬여 있습니다 뒤얽힌 양성 결절이있는 환자의 경우 혈관이 훨씬 매끄 럽습니다 덜 복잡한 나는 당신이 결절 밖을 봐야하는 것처럼 그것에 대해 결코 배운 적이 없습니다

점점 더 많은 환자의 생명을 구할 수있는 큰 잠재력이 있습니다 Madabhushi의 연구는 암을 넘어서까지 확장됩니다 당뇨병 성 망막증 전 세계적으로 증가하는 문제입니다 우리는 일반적으로 더 많은 환자를 치료 눈에 일련의 주사로 질병의 심한 단계 개미 Cole Eye Institute의 많은 임상의와 협력하여 덜 집중적 인 치료와 덜 집중적 인 치료가 필요한 사람을 식별 좋은 시각적 결과를 달성하십시오

우리는 인공 지능을 사용하기 시작했습니다 심혈관 질환, 알츠하이머 질환, 신장 질환 우리는 단지 표면을 긁적입니다 마다 부쉬는 자신이 거의 100 명에 달할만큼 뚜렷하다 연방 연구에서 3 천 5 백만 달러가 넘는 승인 또는 출원중인 특허 예방 매거진과 같은 국가의 관심과 지원 폐암 연구 결과를 가장 놀라운 10 대 의학 중 하나로 지명 그 이야기에 따라, 나는 많은 이메일을 받았습니다 전화 통화 실제로 필요한 것은 시급히 필요합니다

이러한 기술을 활용하여 실제로 활용할 수 있습니다 와의 협력 의사는 그 과정에서 중요한 단계를 나타냅니다 나는 매우 행운입니다 뒷마당에서이 환상적인 의료 생태계로 둘러싸여 있습니다