YOLO Object Detection v2 (MATLAB Tutorial) using Deep Learning!

You Only Look Once-이 딥 러닝 객체 감지 알고리즘은 현재 R-CNN보다 성능이 뛰어난 최신 기술이며 그 변형입니다 몇 가지 다른 물체 감지 알고리즘을 살펴보고 왜 YOLO가 그렇게 잘 작동하는지, 어떻게 자동차를 분류하기 위해 로지스틱 회귀로 자체 YOLO 신경망을 구축 할 수 있을까요? 전체 코드와 패키지 목록은 여기에서 찾을 수 있으며 내 비디오와 함께 코드를 사용하여 30 분 이내에이 YOLO Detector를 작성하는 데 많은 도움이됩니다! https://www

mathworkscom/help/deeplearning/examples/object-detection-using-yolo-v2html Mathworks의 MATLAB r2019a를 사용하고 있습니다 최신 버전의 MATLAB에서이를 복제 할 수 있어야합니다 이 비디오는 Siraj Raval과 그의 YOLO Tensorflow 기술과 튜토리얼에서 영감을 받았습니다

나는 MATLAB을 위해 하나를 만들기로 결정했습니다! 구독하고 좋아요 댓글 어쩌면 공유? 이 중 하나라도 대단히 감사하겠습니다! 그것은 나의 일을 계속하고, 당신들을 위해 AI (인공 지능) 비디오를 계속 만들도록 격려합니다! YOLO 네트워크 Matlab 2019, 딥 러닝 신경 네트워크, CNN, 인공 지능을 만드는 방법 제 이름은 Rishabh Jain이며 오늘 Yolo 버전 2 딥 러닝 비디오에 오신 것을 환영합니다

물체 감지 및 MATLAB 2019 년 오늘 우리는 당신의 세계를 한 번만 살펴볼 것입니다 이 비디오 후에 완성 된 열차 Yolo 감지기를 만들 것입니다 모델이 어떻게 작동하는지 배울 것입니다 다양한 데이터 세트를 다운로드하여 모델을 학습시키고 마지막으로 모델을 감지하여 이 경우 자동차가 될 개체를 설명하십시오 먼저 개요로 Yolo가 무엇인지 살펴 보겠습니다 그런 다음 필요한 다운로드 자동차 이미지가 포함 된 사용 가능한 데이터 세트를로드하는 도구 상자 및 관련 라이브러리 Yolo 감지기를 훈련하고 마지막으로 모델을 평가하고 테스트하여 비디오 내에서 전체 요약을 제공합니다 우선 Yolo가 무엇입니까 Yolo는 한 번만 보이며 여러 단계가 있습니다

이러한 단계는 다음과 같이 먼저 전체 이미지에 신경망을 적용합니다 이미지를 그리드로 나누고 예측과 확률로 상자를 정의하십시오 다음으로 로지스틱 회귀 분석을 사용하여 각 그리드 내의 각 클래스에 대한 확률을 계산합니다 여러 클래스에 대해 서로 다른 회귀 모델을 사용합니다 예를 들어 다른 객체는 하나를 사용합니다 자동차 등을 훈련시키는 로지스틱 회귀 마지막으로 우리는 어떤 상자 또는 미니 그리드 사각형이 더 높은 확률을 갖는지를 결정합니다

로지스틱 회귀 모델을 훈련시키는 객체 또는 클래스는 우리 앞에 모범이 있으면 이해하십시오 예를 들어이 그리드에서 우리는 지구 전체를 볼 수 있으며 지구 내의 모든 국가는 우리가 찾으려고 노력하고 있다고 말합니다 특정 국가 (예 : 미국) 처음에 일어날 일은 먼저이 그리드의 그리드를 상자 전체에 배치하는 것입니다 기본적으로 이미지 전체에 신경망 적용 그럼 우리는 하나의 수업 만 가질 것이고 우리는 단지 예측하려고 노력하기 때문에 미국이라는 것이 있는지 여부 우리는 로지스틱 회귀를 넣을 것이고 우리는 하나의 모델을 가질 것입니다 우리는 미국인 클래스를 하나만 가지고 있으며 우리가 우리에게 가능성을 계산할 것입니다 각 그리드 박스에 있습니다 예를 들어, 왼쪽 상단에 0 0이 있고 그 사실을 알고있을 것입니다 우리를 데려 갈 확률도 05 % 예를 들어 2 3과 같은 상자가있는 동안 멕시코의 일부는 확률이 높을 수 있습니다 어떻게 든 더 가깝고 로지스틱 회귀 모델이 그것을 말할 수 있기 때문에 기본 박스만큼 높지 않기를 바랍니다

2 2에 위치하고 왼쪽은 다양한 이미지에서 신경 네트워크를 훈련시킵니다 예를 들어 훈련시킬 수 있습니다 여러 개의 지구본이 이미지와 같으며 모델에 그리드 선을 그려 확률을 계산할 수 있습니다 각 상자마다 결국, 우리는 어느 박스가 미국을 포함하는지 예측할 수있는 신경망을 보게 될 것입니다 정확하고 좋은 시간에 Yolo를 사용할 때 한 가지만 기억합시다 우리는 실제로 실시간 테스트 및 훈련 절차를 가지고 있습니다 로지스틱 회귀 분석을 사용하고 있기 때문에 상당히 빠른 평가 우리는 일반적으로 필요한만큼의 데이터를 필요로하지 않습니다 로지스틱 회귀 및 데이터 양은 사용중인 클래스에 따라 변경 될 수 있습니다

2 단계로 넘어 갑시다 MATLAB에서 라이브러리 및 도구 상자를 다운로드하는 것은 매우 간단하며 이미 몇 가지가 있어야한다고 가정합니다 전에 기계 학습 또는 딥 러닝 프로젝트를 수행 한 경우 도구 상자 따라서 컴퓨터 비전 툴박스 딥 러닝 툴박스와 병렬 컴퓨팅 툴박스가 필요합니다 선택적으로 네트워크를 직접 훈련시키고 사전 훈련을 필요로하지 않는 경우 작업 속도를 높이고 작업을 좀 더 호환성있게 만드는 NVIDIA GPU 그 외에는 매우 간단합니다 대부분이 이미 설치되어 있어야합니다

이미 딥 러닝 도구 상자가있는 경우 ResNet 50 네트워크에 대한 딥 러닝 툴박스 모델이 있어야합니다 하지만 일단 MATLAB에서 코드를로드하면 그것은 당신에게 경고하고 당신이 잃어버린 것과 우리가 모두 가지고 있기 때문에 지금 당신이 무엇을 필요로하는지 알려 주어야합니다 설치된 모듈 및 라이브러리 사전 훈련 된 검출기 다운로드를 시작하겠습니다 이 예는 사전 훈련 된 감지기를 사용하여 예없이 Train Yolo v2로 감지기를 훈련 시키려면 훈련이 완료 될 때까지 기다려야합니다 코드에서 볼 수 있듯이 객체 감지기 기능은 훈련 훈련 변수를 true로 설정합니다 그렇지 않으면이 코드를 사용하여 사전 훈련 된 검출기를 다운로드하십시오

다음으로 데이터 세트를로드합니다 이 예는 다음을 포함하는 소형 차량 데이터 세트를 사용합니다 각 이미지에 295 개의 이미지에는 하나 또는 두 개의 레이블이있는 차량 인스턴스가 포함되어 있습니다 작은 데이터 세트는 Yolo v2 교육 절차를 탐색하는 데 유용합니다 그러나 실제로 강력한 검출기를 훈련시키기 위해서는 더 많은 라벨링 된 이미지가 필요합니다 훈련 데이터는 테이블에 저장됩니다 첫 번째 열에는 이미지 파일의 경로가 포함되고 나머지 열에는 ROI가 포함됩니다 차량 라벨 다음으로 데이터 세트의 이미지 중 하나를 표시하여 포함 된 이미지 유형을 이해합니다 코드를 사용하여 화면의 오른쪽에 보이는 것처럼이 예제 이미지를 실제로 표시합니다 금후 탐지기를 훈련시키기위한 데이터 세트와 탐지기를 평가하기위한 테스트 세트로 데이터 세트를 분할합니다

교육용 데이터의 60 %를 선택하면 나머지는 평가 용으로 사용됩니다 먼저 이미지 입력 ​​크기와 클래스 수를 지정하십시오 이미지 입력 ​​크기는 훈련 이미지의 이미지 크기보다 커야합니다 이 예에서는 RGB 또는 3 가지 색상이 있으므로 이미지 또는 2 24 x 2 24 x 3 다음으로 앵커 박스의 크기를 지정하겠습니다 다음으로 사전 훈련 된 ResNet 50을로드합니다 피처 레이어를 지정하고 yolo 감지 네트워크 생성 마지막으로 Yolo 물체 탐지기를 훈련시킵니다 아래 설명에서 나머지 코드와 함께이 코드 섹션을 찾을 수 있습니다

화면의 공간이 부족하여 코드를 모두 표시 할 수 없기 때문에 코드의이 부분은 설명에 있습니다 기본적으로 테스트 세트에있는 다양한 이미지가 모두 포함 된 테이블을 만든 다음 실행합니다 각 이미지의 검출기는 평균 정밀도뿐만 아니라 로그 평균 미스율을 계산합니다 그래프를 작성하면 다음과 같은 것을 찾을 수 있습니다 이 예제는 딥 러닝을 사용하여 차량 감지기를 훈련시키는 방법을 보여줍니다

교통 표지판 탐지기를 훈련시키기 위해 비슷한 단계를 따를 수 있습니다 딥 러닝에 대해 더 배우기위한 보행자 또는 기타 대상 아래 설명을 확인하고이 비디오에서 다시 언급 한 다른 코드를 다운로드하거나 배우십시오 설명을 확인하십시오 시청 해주셔서 감사합니다 이 채널을 좋아하고 구독 해주세요 다음에 you겠습니다

Develop Fraud Detection Project using Machine Learning – Skyfi Labs Online Project-based Course

이 과정에서는 사기성 신용 카드 거래를 예측하기위한 기계 학습 모델을 개발합니다 기존 크레딧에 분류 기술을 적용하여이 프로젝트를 개발할 것입니다

카드 거래 데이터 세트 이 과정의 일부로 Gaussian Naive Bayes 알고리즘, Feature Selection, 및 혼란 매트릭스 Boston House 가격 책정에 대한 입문적인 문제를 배우면서 시작합니다 기계 학습의 기본 틀을 이해합니다 아나콘다, 쥬피터, 판다, 스켈레톤, 쉰 등 다양한 도구를 사용하는 법도 배웁니다

이 과정은 Skyfi Labs Learn-Do-Review 방법론을 기반으로합니다 프로젝트 구축 외에도 기술 개념을 배우십시오 기계 학습과 같은 주제는 프로젝트를 수립함으로써 만 배울 수 있으며 Skyfi Labs는 프로세스를 매우 쉽게 만듭니다 등록 즉시 코스 액세스를 얻으십시오 지구상 어디서나 1 주일 이내에 프로젝트를 완료하고 인증서를 얻을 수 있습니다

Skyfi Labs 과정을 사용하면 명확한 결과물을 가진 프로젝트를 구축 할 수있을뿐만 아니라 또한 그것에 관련된 개념을 배우십시오 그래서 당신은 자신감을 갖고 인터뷰에 응하고 열 수 있습니다 오늘 등록하고 건물 프로젝트를 통해 학습을 시작하십시오

Anomaly detection using machine learning in Azure Stream Analytics | Azure Friday

>> 이봐 친구들 데모를 보셨을 것입니다

IoT 센서가 일부 시스템 구성 요소의 장애를 감지합니다 하지만 당신이 변칙을 감지 할 수 있다면 어떨까요? 실패하기 전에? Azure Big Data 팀의 Krishna는 여기에 있습니다 실시간으로 이상을 감지하는 방법을 보여주세요 에서 기계 학습 기능 사용 오늘 Azure 금요일에 Azure Stream Analytics [음악] >> 이봐

나는 스콧이고, 금요일은 푸른 색이야 나는 크리슈나 마미 디 파카와 함께있다 Azure Stream Analytics에서 가져 왔습니다 잘 지내셨습니까? >> 나는 아주 잘하고있다 고마워, 스캇

>> 사람들이 하드웨어를 가져올 때 나는 그것을 좋아합니다 네가해야 할 일이 무엇이든간에 그것은 위대 할 것이다 깜박이는 불빛이 나오기 때문입니다 >> 좋아 굉장해

>> 그래서, 이것은 하드웨어 조각입니다 그리고 당신은 내가 이것으로 어떻게 변칙을 감지 할 수 있는지 보여 주려고합니다 그러나 그것은 아주 어려울 것 같지 않습니다 >> 그다지 힘들지 않을거야 그것은 매우 간단하고 매우 흥미로울 것입니다

>> 알았어 따라서이 데이터는 Azure Stream Analytics로 푸시됩니다 나는 내가 수백만 달러가있는 세상이 있다고 가정하고있다 이것들의 함대 같은 거지? >> 물론 그것이 바로 고객이하는 방식입니다

그들은 수백 개의 센서가 부착되어 있습니다 실패하지 않으려는 많은 기계 및 구성 요소, 그들은 실패의 조짐을 감지하기를 원합니다 실시간으로 이례적으로 탐지가 이루어집니다 >>이 모든 것이 Azure Stream Analytics에 포함됩니다 >> 물론

Azure 스트림 분석 Azure에서 완벽하게 관리되는 과거 서비스 실시간 분석 알고리즘을 정의하는 데 도움을줍니다 매우 간단한 SQL과 같은 언어를 사용하여, 그리고 그것은 정말로 싸다 시간당 약 011에서 시작할 수 있습니다 >> 진심으로? 네

>> 그래서, 비록 내가 수백만을 가지고 있지 않더라도, 어쩌면 단지 수십개가 될 수도 있습니다 내 집에 이것을 설치할 수 있어요 >> 물론 많은 열성 팬들이 실제로 그렇게합니다 >> 정말? 네

>> 나는 그것을 좋아한다 그래서, 여기에 Azure Stream Analytics에 대한 일반적인 개요 네 시작하기 매우 쉽습니다 우리는 아주 간단한 SQL과 같은 언어를 사용하도록합니다

우리는 당신이 약 15, 몇 가지 구성 매개 변수로 Azure에서 16 개의 서비스를 제공합니다 코드를 작성할 필요가 없습니다 우리는 SLA의 3 가지 요소와 기업의 준비 상태에 서 있습니다 모든 종류의 정부 및 산업 규정 등이 있습니다 >> 와우

>> 정말 쉬운 시스템과 솔루션입니다 사용하고 배포하고 이익을 얻습니다 >> 알았어 환상적 그래서, 뜨거운 길은 무엇입니까? >> 핫스팟 분석

따라서 일반적으로 분석에서는 분석을 수행하는 두 가지 다른 방법이 있습니다 하나는 실시간으로 이벤트를 분석하고, 그리고 다른 방법은 배치 분석을하는 것입니다 따라서 핫 경로 분석에서, 당신은이 사건들을 사건으로 가로 채고 있습니다 당신이 반응 할 수 있도록 전선에 있습니다 일어나는 일에 응답하다

몇 초 내에 주변 환경을 보호하십시오 >> 와우 따라서 이것은 학습에 관한 것이 아닙니다 일괄 처리가 실행되는 자정에 문제가 발생했습니다 >> 정확하게

>> 최대한 빨리 배우고 있습니다 >> 물론 옳은 >> 알았어 와우

너는있어 이 모든 다른 장치들은 모든 다른 장소에서옵니다 데이터는 어느 곳에서나 올 수 있습니다 >> 데이터는 응용 프로그램과 장치에서 가져올 수 있습니다 우리는 고객을 관리하고 있습니다

수백, 수천 개의 센서 및 장비가 무엇인지 이해하고 싶다 이러한 기계 및 장치의 현재 상태 그들이하는 일은 데이터를 IoT 허브에 보내고, 고객이 이해하고자하는 경우 실행중인 응용 프로그램의 특성, 이벤트 허브에 데이터를 보냅니다 애널리틱스의 스트림 애널리틱스로 IoT 허브 또는 이벤트 허브의 데이터 그런 다음 데이터에 대한 실시간 처리를 수행합니다 우리는 SQL 데이터베이스, SQL 데이터웨어 하우스, 데이터 호수, 당신 이름, 장시간 유지 및 나중에 배치 분석을 수행 할 수 있습니다

또는 실시간 대시 보드에 전원을 공급할 수 있습니다 Power BI에서 Push API 사용 또한 다운 스트림 작업을 트리거하는 데 도움을 줄 수 있습니다 변칙을 감지하면 어떻게됩니까? 막 실패 할 무언가를 감지하면 어떻게됩니까? 액션을 실행하고 싶습니다 어쩌면 티켓을 만들지 않으려 고합니다 어쩌면 이메일을 보내고 싶을 것입니다

텍스트 알림을 보내고 싶을 수도 있습니다 우리가 당신을 도울 수 있습니다 Azure Stream Analytics를 사용하면 이러한 모든 종류의 작업을 매우 쉽게 처리 할 수 ​​있습니다 >> 환상적입니다 비록 우리가 이야기하고있을지라도 이상 탐지 및 새로운 기능과 사물의 일부, 이것은 그것의 힘에 관하여 순전히 말하는 중대한 활주이다

어디서나 데이터를 가져 오면, 스트림 애널리틱스에서 네가 할 수있는 일은 단지 군단 일 뿐이다 >> 물론 >> 환상적 괜찮아 무엇 향후 계획? >> 그래서, 오늘, 나는 아주 행복하다

우리가 알고있는 것을 알리기 위해 기계 학습 기반의 이상 현상 모델을 스트림 애널리틱스에 추가합니다 그럼, 우리가 이상을 필요로하지 않는 이상 당신은 기계 학습 알고리즘을 작성, 또는 모델을 가져올 필요가 없습니다 우리는 우리가 가지고있는 모델을 가지고있다 Azure Stream Analytics의 코드베이스 간단한 함수 호출로 호출 할 수 있습니다 그래서, 이것의 장점은 무엇입니까? 많은, 많은 이점

첫 번째 것은 저렴한 비용입니다 이상 탐지 시스템 학습을 할 필요가 없습니다 이 알고리즘을 쓰는 과학자, 너는 없어 다른 기계 학습 서비스에 대한 비용 모두 Azure Stream Analytics에 내장되어 있습니다

모델 구축의 전체 복잡성, 모델 교육은 방금 추상화되었습니다 Stream Analytics에서 간단한 함수 호출로 이동합니다 그 외에도, 빠르게 움직이는 것도 얻을 수 있습니다 당신이 당신의 모델을 쓰지 않기 때문에, 당신은 그것을 훈련하지 않고 있습니다 이와 같은 패러다임으로 인해 많은 장점이 있습니다

>> 그래, 어떻게이게 가능 할까? 매우 다양한 종류의 데이터, 데이터의 풍미가 있기 때문에? 간단히 말하면 y 축은 다음과 같습니다 항상 당신이보고있는 데이터의 종류에 따라 다릅니다 X, Y, Z, X, Y, Z 데이터 또는 열, 또는 혈당 정보, 또는 심박수 거기에 너무 많은 종류의 데이터가 있습니다 어떻게 변칙을 감지하고 모든 데이터에 효과가있는 기계 학습 알고리즘? >> 좋은 질문입니다

그래서, 모델 스트림 애널리틱스에서 기계 학습 비전 이상 탐지, 그것은 자율 학습 모델입니다 즉, 모델에는 사전 교육이 제공되지 않습니다 그것은 읽기 시작하는 데이터로부터 학습합니다 그래서 모델에 다음과 같이 말할 수 있습니다 너무 많은 수에서 배우다

이벤트가 실제로 득점되기 전에 이미 말했듯이, 모든 시스템은 자연에는 다른 데이터 분포가 있습니다 그래서 모델이 당신에게 오는 것이 매우 중요합니다 선입관없이 데이터가 어떻게 보이는지에 대해 그것은보고있는 데이터로부터 배우고, 그리고 득점을 시작할 것입니다 당신을위한 데이터 포인트의 다음 세트

>> 그건 의미가 있습니다 알아두면 좋겠지 만 여전히 나 거기의 80 퍼센트의 방법과 나에게 많은 시간과 많은 시간을 절약 해준다 내가해야 할 일은 >> 정확하게 그래서, 우리가 IoT의 고객을 볼 때 또는 일부 유형의 사용자를 사용하는 스트림 애널리틱스 그들의 파이프 라인에서 기계 학습 알고리즘, 그것은 매우 분명했다 그들 중 약 70 %가 어떤 종류의 변칙 탐지 왜 우리가 정말로 그들의 삶을 만들기로 결정했는지 풍부함을 Microsoft와 Microsoft Research 이러한 알고리즘은 Stream Analytics에 내장되어 있습니다

>> 아주 멋지다 괜찮아 >> 따라서 스트림 애널리틱스에서 우리는 두 가지 매우 광범위한 일련의 변칙을 탐지 할 준비가되어 있습니다 하나는 일시적인 예외이며, 일반적으로 스파이크 및 딥으로 알려진, 그 다음에 지속적인 변칙들, 천천히 증가하거나 천천히 감소 추세입니다 VM에 대해 생각한다면 데이터 센터에서 모니터링하고있을 수도 있습니다

VM의 메모리 누수, 그것은 매우 천천히 당신 위로 기어 오릅니다 그래서, 그것들은 잘 우리는 추적 할 준비가되어 있습니다 일시적인 스파이크와 딥이 아닙니다 우리는 알고리즘과 함수를 사용하고 있습니다 >> 자, 나는 네게 조금 언급했다

전에 나는 이제 다시 말할거야 왜냐하면 나는 당뇨병 환자와 나는 여러 가지가있다 내 혈당 관리에 도움이되는 장치 그 두 가지 모두 일시적인 예외입니다 고혈당 먹기 음식은 제가 알고 싶은 것입니다

이 모든 데이터는 Azure에 있습니다 지속적 변칙은있다 작년에 내 혈당이 내게 들어왔다 그리고 나는 그것을 알아 차리지 못했다? 나는 내 자신의 모델을 훈련 시키려고 노력했다 하지만 Stream Analytics를 사용하여 작업을 수행하고 싶습니다

네 우리는 확실히 그것을 시도해야합니다 >> 환상적 그래서, 당신은 그 두 가지를 할 준비가되어 있습니다 그것들은 제가 사용할 수있는 기능입니다

>> 정확하게 >> 알았어 >> 요점은 이것이 얼마나 간단합니까? 실행할 함수 서명 여기에 당신의 변칙 탐지 알고리즘이 있습니다 예를 들어, 변경점 알고리즘을 사용합니다 이렇게 낮은 경향의 변칙을 감지하는 데 도움이됩니다

스칼라 표현은 실제로 당신이 당신의 변칙을 달리고 싶은 분야 온도 일 수도 있고, 압력 일 수도 있고, X, Y, Z 좌표 일 수 있습니다 이름을 지정하십시오 직접오고있는 분야 일 수 있습니다 귀하의 데이터 또는 그것이 될 수있는 분야에서 귀하의 검색어의 일부로 계산되었을 수도 있습니다

신뢰 수준 이것은 매우 중요합니다 모델 단계 모델의 감도, 모델이 특정 유형의 이상에 얼마나 민감해야 할지를 결정합니다 민감도가 높거나 신뢰도가 높을수록, 당신은 더 적은 수의 예외로 표시 될 이벤트, 신뢰 수준을 낮추고, 더 높은 것은 모델이 나타내는 예외의 수가 될 수있다 당신을 위해 추적 할 것입니다

>> 그건 의미가 있습니다 그래서 들어 오기 자동차 충돌은 스피드 범프를 넘는 것과는 다릅니다 >> 정확하게 >> 알았어

>> 역사 크기 우리는 우리가 슬라이딩 윈도우라고 부르는 것을 따릅니다 내역 크기는 이벤트 수입니다 그 슬라이딩 윈도우에 포장하고 싶다면, 또한 모델에서 학습 할 이벤트 수를 모델에 나타냅니다 실제로 다음 창에서 이벤트를 채점하기 시작합니다

>> 알았어 >> 그런 다음, 일반적인 것을 사용할 수 있습니다 Stream Analytics 개발 모델, 당신이 파티션을 가질 수있는 것처럼 이것은 매우 중요하기 때문에, 단일 쿼리에서, 여러 개의 장치를 모니터링하고 있습니다 이 장치들 각각은 기본적으로 다른 종류의 데이터 배포, 당신은 다른 모델이되기를 원합니다

훈련되고 다른 모델이 실행되어야한다 서로 다른 이벤트 흐름에 같은 Stream Analytics 쿼리에서 관리되고 있습니다 그래서 쿼리로 파티션을 할 때, 이런 종류의 동작을 활성화 할 수 있습니다 >> 알았어 그래서, 만약 내가 가서 발견하고 싶다면 잠재적으로 변경점 이상 검출 한 달 동안 내 혈당에 1 년 넘게 나는이 것들을 다르게 나눌 수있다

그들을 따로 배우게하십시오 >> 정확하게 >> 환상적 >> 기간은 창입니다 사건의 수의 관점에서가 아니라, 그러나 시간의 측면에서

가장 좋은 방법은 우리가 논의한 역사 크기 사이의 동등 함, 이벤트 수의 관점에서 볼 때, 및 창 크기 얼마나 많은 이벤트가 있을지 예상 할 수 있습니다 일반적으로 그 시간 창에서 볼 것으로 예상, 그런 다음 그 패리티를 공격하려고합니다 히스토리 크기 및 창 크기는 시간 기반입니다 >> 환상적

이것은 대단히 강력 해 보인다 >> 이것은 있습니다 모델이 실행되면, 함수가 실행되면 두 가지 유형의 출력을 얻습니다 하나는 0과 1 인 IsAnomaly입니다 하나는 탐지 된 이상이 있음을 나타냅니다

0은 이상이 없다는 것입니다 점수 이것은 기계 학습 알고리즘입니다 처리중인 모든 이벤트 그것은 점수를 생성합니다

우리는 또한 점수 통계는 처리되는 모든 이벤트에 대한 것입니다 >> 알았어 그래서, 나는이 장치를 쳐다 보았다 나에게 깜박 거리고있어 너 나 멋진 것을 보여줄거야? 네

MXChip 장치입니다 IoT 서클에서 널리 사용됩니다 온라인으로 구입할 수 있습니다 Visual Studio를 사용하여 프로그래밍 할 수있는 SDK도 있습니다 사실, Microsoft는 귀하를위한 SDK를 보유하고 있습니다

이 MXChip을 사용하여 멋진 프로젝트를 개발하십시오 좋은 점은 MXChip에서 제공하는 것입니다 다양한 종류의 센서 온도, 습도에 대한 센서가 있습니다 현재 우리가 사용하려고하는 것은 가속도계입니다

그것은 단순히 X, Y, 이 특정 센서에서 Z 좌표가 추적됩니다 내가 화면에 가지고있는 것은 당신이 실제로 할 수있는 웹 사이트 SDK와이 MXChip 도구 세트를 활용하십시오 >> 알았어 그래서, 우리는 볼 수 있을까요? 이것에 들어갈 실제 데이터와 분석 방법은 무엇입니까? >> 물론 그래서, 당신이 화면에 가지고있는 것 Power BI에서 추적중인 세 가지 매개 변수입니다

하나는 z 축 변위이고, MXChip에서 추적합니다 그런 다음, 아래에, 우리는 예 또는 아니오 예외가 있습니다 하나는 이상이 있음을 나타내는 것으로, 제로는 이상이 아니며, 점수와 관련된 모델이 처리중인 모든 이벤트 >> 알았어 >> 그래서, 지금 내가 할 것은 단지 움직이는 것이다

이 MXChip에서 조금 X, Y, Z 좌표를 방해하기 위해서 이것이 매우 유사하다고 가정 할 수 있습니다 터빈에서 진동이 감지되고, 속도를 줄이거 나 중지하고 싶을 수 있습니다 그래서, 나는 그것을 움직일 것이다 조금만 쉬고 다시 그 자리에 앉으세요

>> 알았어 >> 몇 초안에, 데이터는 Stream Analytics에 의해 처리되고, 그리고 거기에 z 축 변위 및 기계 학습 알고리즘을 사용하여 비정상적인 탐지가 이루어졌다 >> 그건 겨우 몇 초 였어 그 정보를 알아 냈어 >> 정확하게

>> [들리지 않음] 죄송합니다 나는 그저 할 일을보고 싶다 따라서 그 정보는 1 ~ 2 초 정도 걸립니다 가속도계가 스트림 애널리틱스로 전송됩니다 그런 다음 스트림 애널리틱스에서 힘 BI, 거기있다

>> 정확하게 >> 그럼, 그 기능은 어떻게 생겼습니까? 코드가 어떻게 생겼지? >>이 함수는 매우 간단합니다 보시다시피, 우리는 장치에서 시간과 z 축을 얻고 있습니다 그렇다면 마술이 실제로 일어나는 곳입니다 스파이크 및 딥 알고리즘을 사용하고 있습니다

저는 Z 축을 관리하고 모니터링하고 있습니다 저는 99 퍼센트의 신뢰 수준을 나타냅니다 모델에 뭔가가 비정상이라고 말하면, 모델은 최소한 99 %의 자신감을 가져야합니다 5 백 개는 내가 원하는 모델의 수다 득점하기 전에 배우십시오

나는 120 초의 시간 창을 제안하고있다 >> 정말 멋지다 >> 그게 전부 야 >> 그게 다야? >> 그게 전부입니다 그럼, 난 그냥 갈거야

내 출력을 Power BI 대시 보드로 밀어 넣습니다 >> 그런 다음 선택을하면, 기본적으로 그 데이터를 투영합니다 Power BI를 사용하여 실시간 대시 보드를 만들 수 있습니까? >> 그게 전부 야 >> 즐거운 주말에 함께 할 수있는 일입니다 >> 정확하게

>> 환상적입니다 그래서 어디 이 정보에 대해 배우려면 어떻게해야합니까? 내가 이것을 좋아하기 때문에 어떻게 즉시 시작할 수 있습니까? >> 물론 그래서, 그렇게하기 위해서, 스트림 애널리틱스의 설명서가 실제로 적합한 장소입니다 문서로 가십시오 이상 탐지 검색, 우리가 가진 모든 기능은 당신이 사용할 수 있도록 잘 묘사되고 정의되었습니다

>> 환상적입니다 정말 고맙습니다 나는 모든 것을 배우고있다 이상 탐지 및 이러한 훌륭한 기계 학습 중 일부 내장 알고리즘 오늘 Azure 금요일에 Azure Stream Analytics [음악]

Machine Learning for Risk Management: Fraud Detection Using Machine Learning

안녕하세요, 오늘 저는 기계 학습을 사용하여 사기 탐지를 수행하는 방법을 보여 드리려고합니다 먼저 데이터를 MATLAB 작업 영역으로 가져옵니다

이 데이터 세트에는 기밀성 목적으로 익명화 된 신용 카드 거래 데이터가 포함되어 있습니다 여기에서 URL에서 데이터를 다운로드하고 자세한 내용을 읽을 수 있습니다 이 데이터 세트의 대부분의 변수는 시간, 양 및 클래스를 제외하고 주성분 분석 또는 PCA로 변환되었습니다 실제로 PCA는 차원 감소에 일반적으로 사용되는 기술이며 일반적으로 데이터 전처리 중 데이터에 적용됩니다 이제 우리는 클래스 변수를 범주 형으로 변환하려고합니다

여기서 1은 사기 활동을 나타내고 0은 정상 활동을 나타냅니다 그런 다음 데이터를 교육 및 테스트 데이터 세트로 분할하십시오 여기서는 테스트를 위해 데이터 세트의 30 %를 보류합니다 데이터 세트를 준비하고 나면 기계 학습 모델을 적용하여 데이터를 학습 할 수 있습니다 이 경우 여기서는 코드의 한 줄에 분류 트리를 사용하여 데이터를 저장합니다

우리는 이제 데이터를 훈련 중입니다 우리는 이제 교육을 마쳤습니다 여기서 view 함수를 사용하여 트리를 시각화 할 수 있습니다 분류 트리가 트랜잭션이 사기 행위인지 여부를 선택하는 방법을 볼 수 있습니다 이제 우리는 훈련에 사용하지 않은 데이터 인 테스트 데이터 세트를 사용하여 기계 학습 모델을 테스트 할 수 있습니다

훈련 된 모델을 사용하여 사기성 활동 및 점수를 예측합니다 첫 번째 변수는 예측 된 사기 행위의 벡터입니다 두 번째 변수는 점수라고하며 특정 클래스에서 분류 될 확률 또는 확률을 나타냅니다 그런 다음 혼동 행렬에서 예측 및 실제 사기 행위를 시각화 할 수 있습니다 대각선 요소는 올바르게 분류 된 테스트 샘플을 나타냅니다

한편, 비대 각 요소는 잘못 분류 된 테스트 샘플을 나타냅니다 우리는 020 % 미만의 사기 행위로 인해 매우 불균형 한 계급을 가지고 있기 때문에, 분류 정확도가 극도로 높아질 것입니다 이 경우 거의 100 %입니다 따라서이 정확성은이 문제에 대해 의미가 없습니다

정밀도 – 리콜 곡선 (또는 AUPRC) 아래 면적은 가장 널리 받아 들여지는 지표 중 하나입니다 매우 불균형 한 이진 클래스 문제의 성능을 평가할 수 있습니다 AUPRC가 높을수록 분류기의 성능이 향상되었음을 나타냅니다 AUPRC가 1과 같으면 100 % 진정한 양성율, 위양성 없음, 위음성이없는 완벽한 분류기를 갖게됩니다 이 경우 AUPRC는 약 59 %입니다 이는 여전히 모델을 개선 할 여지가 있음을 의미합니다

사기 발견을 수행하기 위해 기계 학습 알고리즘을 사용하는 방법에 대한 간단한 예제를 보았습니다 사실, 물류 회귀 분석, 가장 가까운 이웃 및 지원 벡터 머신을 포함하여 MATLAB에서 사용할 수있는 많은 분류 자들이 있습니다 기계 학습 알고리즘 및 해당 응용 프로그램에 대한 자세한 내용을 보려면이 웹 페이지를 방문하십시오 기계 학습과 관련된 예제 및 비디오가 있습니다 이 비디오를 시청 해 주셔서 감사합니다

Lec-5: Machine Learning | Vision-Line Detection with Hough Transform

안녕하세요 여러분! 나는 Muhtar입니다 기계 학습 | 비전 – 라인 탐지 Hough Transform과 함께

필요한 파이썬 라이브러리 가져 오기 1 단계, 입력 이미지를 엽니 다 이미지를 열고 배열로 변환하십시오 입력 이미지는 에지 검출의 결과 이미지 여야합니다 필터, 예를 들어, Canny 또는 임의의 다른 유사한 에지 검출 알고리즘

에서 이 튜토리얼에서는 "배경"과 "객체"가 흑백으로 설정되었으며, 입력 이미지에서 각각 먼저 이미지를 열면 이미지 이름은 "test002png", 그레이 스케일로 변환; 크기를 얻으십시오 다음 단계로 넘어 가기 전에, Hough Transform의 주요 개념은이 그림을 사용하여 표현됩니다 그때, 우리는 다시 코드로 돌아갈 것이다

Hough Transform을 사용하여 선 검출 이 그림은 Hough Transform의 주요 아이디어를 보여줍니다 이것은 x / y- 직교 좌표계입니다 동등 어구 이것을 x / y-Image Space라고 부릅니다

좌표를 입력 이미지에 맞 춥니 다 우리가 알다시피, 이것은이 행의 방정식입니다 좌표계, 여기서 k와 b는 기울기와 절편을 나타냅니다 각기 p1 및 p2는 동일한 선 L상의 두 점을 나타냅니다

이 좌표계의 각 행에 대한 상황 기울기 k와 절편 b 여기서 특정 선 k와 b는 상수입니다 매개 변수; x와 y는 변수입니다 대조적으로, 우리가 가능한 것을 찾으려고 노력한다면 행 방정식에서 k 또는 b에 대한 해답, 즉, x와 y는 상수 매개 변수이고, k와 b는 변수로 간주됩니다 주어진 점 p1에 대한 해답을 얻었다

p2는 다음과 같이 나타낼 수 있습니다 점 p1에 대해이 표현식을 얻었습니다 포인트 -2에 대해, 우리는 이것을 얻었다 표현 실제로 이것은 선에 대한 또 다른 유형의 방정식입니다

여기서 k와 b는 변수 x와 y는 방정식의 상수 매개 변수입니다 그래서 솔루션 세트는 이미지를 통과하는 모든 가능한 선의 매개 변수를 설명합니다 포인트, 즉 p1과 p2 이 표현을 k / b- 매개 변수 공간 실제로, 우리는 누적기로 매개 변수 공간을 나타냅니다

배열을 실용적인 계산에 넣고 k / b- 매개 변수 공간 따라서, x / y- 이미지 공간에서 발견 된 각각의 이미지 포인트에 대해, 매개 변수 공간의 행이 그려집니다 이 작업은 추가로 수행됩니다 라인이 통과하는 배열의 값은 다음과 같이 증가합니다 누산기 어레이의 각 셀에서의 값은 그것과 교차하는 매개 변수 공간 행

우리의 경우에는 2입니다 여기서 p1과 p2를 가리킨다 즉, x / y-Image의 선상에있는 각 점에 대해 space이면 k / b- Parameter Space에 선이 그려집니다 즉, N 점들은 x / y- 이미지 공간의 선상에 놓이고, N- 선은 k / b- 위치의 (k, b) 위치에서 교차합니다 이것은 매우 중요합니다

Hough Transform의 개념 우리는 교차점에서 흥미 롭습니다 그러나, 정상 k / b- 표현에서, 수직선은 문제는 k가 무한대이기 때문에, 즉, 무한대의 기울기 수직선 헤 시안 정규형은이 문제를 피하기 위해 그 각도 "theta"와 원점으로부터의 거리 "rho"에 의해 선을 이룬다 그래서 우리는 코드에서 k / b-Parameter 대신 theta / rho-Parameter 공간을 사용합니다

공간 이 표현과 "세타"각도의 범위와 원점에서 거리 "rho" 또 다른 중요한 개념은 이미지 중심을 x / y- 이미지 공간에 대한 참조 점으로 설정하면 다음과 같이됩니다 이 "반경"거리 "rho"의 범위를 영역에서 제한 할 수 있습니다 즉 "maxRho"(코드에서의 rhoMax)를 이미지의 대각선의 반 길이로 설정합니다

이것이 중심이다 이것은 "maxRho"(코드에서 rhoMax)입니다 우리는 이것을 나중에 코드에서 볼 것입니다 이제하자 코드를 다시 시작하십시오

3 단계 – 필요한 변수를 정의하고 범위 먼저 x / y 이미지 공간에 참조 점을 설정합니다 즉 센터 이미지의 포인트 따라서 이미지의 중심을 x / y-Image의 참조 점으로 설정할 수 있습니다 공간

이 점 2로 나눈 값 쎄타 / ρ- 매개 변수 공간의 선의 "세타"각, 즉 허프 공간 Per Hough 쎄타 각의 범위는 [0, 180]입니다 그러나 단계 크기는 올바르게 정의 할 수 있습니다

예를 들어, 세타 각도의 스텝 사이즈 이 자습서에서는 단계 크기를 θ 각은 05도입니다 실제로, [0, 180]의 범위는 360 단계로 나뉘어져 있습니다 360 걸음

360 걸음 그런 다음 계산에 라디안을 사용하기 때문에 라디안으로 변환하십시오 MAX_THETA 필요 게다가 MAX_THETA는 360과 같습니다 단계 0

5 도 3 "rho", 원점에서 선까지의 거리 헤 시안 당 일반을 나타내는 라인입니다 이것은 헤 시안 표준 형식의 라인입니다

가능한 최대 "rho"는 대각선의 반 길이와 같아야합니다 입력 이미지 절반 길이; 대각선의 반 길이 이것은 측정치가있는 경우 대각선의 끝점 또는 그 근처의 선 이 점, 이것과 이것

우리가 이미지의 중심을 x / y- 이미지 공간에 대한 참조 점, 그런 다음, 범위의 범위를 제한 할 수 있습니다 "rho"는 입력 이미지의 대각선의 반 길이입니다 이건 매우 중요합니다 "rhoMax", 원점으로부터 거리를 먼저 계산 한 다음이를 "int"로 변환하십시오 그때 대각선을 계산하십시오

위에서 보았 듯이 네 가지 범위는 다음과 같습니다 MAX_RHO = diag, 우리는 MAX_BRIGHTNESS뿐입니다 최대 픽셀 값 다섯, 정의 output / result Hough Accumulator 배열을 [MAX_RHO, MAX_THETA]로 지정하십시오 이것은 출력 배열입니다

출력은 여기에 쓰여질 것입니다 MAX_RHO, MAX_THETA 수정 3 단계 – 전체 이미지 변환을 반복합니다 x / y-Image 공간에서 theta / rho-Parameter Space까지의 선 (점) 이 우리의 루프입니다; 모든 이미지 또는 픽셀을 반복합니다 실제로 나중에 MAX_BRIGHTNESS를 사용합니다

흰색 픽셀 만 단위는 라디안 단위입니다 우리는 x / y- 이미지 중심을 기준점으로 사용하기 때문에이 유형의 표현 중심점 이것은 원점에서 선까지의 "rho"입니다 원점에서 선까지의 거리

"rho" 거리 괜찮아, 경우에 따라 여기에 몇 가지 조건을 넣으십시오 경우에 따라 일부 조건을 배치하십시오 그런 다음이 점은 1 씩 증가합니다 x / y- 이미지 공간에있는 라인의 각 점에 대해 1 씩 증가합니다

이것은 매우 큽니다 중대한 예를 들어, "houghAcc == 50"은 라인이 있음을 의미합니다 x / y- 이미지 공간과 그 선은 50 픽셀 (점)으로 구성됩니다 이건 매우 중요합니다

결과를 저장하고 표시하십시오 무화과, 무화과 = (12, 10) 'imshow': '회색', 일부 제목 설정 ( '원본 이미지') 결과, 결과 표시 'imshow' 'houghAcc' '회색', '범위',이 범위입니다 제목을 'Hough Transform'으로 설정하십시오 set_xlabel, "세타"각도; 그것의 범위 및 단계 크기; 단계 크기

그런 다음 set_ylabel, 원점에서 거리, 즉 "rho"와 범위입니다 이 범위 이것은 우리의 코드입니다! 좋아요, 이제 다시 확인합시다 나는 많은 의견을 덧붙였다 이러한 의견은 귀하가이 코드를 이해하는 데 도움이 될 것입니다

괜찮아 괜찮아 좋아 보인다 우리는 그것을 실행합니다 우리는 기다리고있다

우리는 계속 기다리고 있습니다 이것이 결과입니다 원본 이미지 결과, Hough 변환 θ 각 범위와 스텝 크기, ρ 범위 및 스텝 크기 각도

1 2 3 4 5 6 7 8 9 10 11 11 lines 그리고 또한 있습니다 11 점; 흰색 점 이것은 우리의, 그것은 위대한 것 같습니다! 이것이 우리 코드입니다 암호 YouTube 동영상 바로 아래의 링크에서이 코드를 찾을 수 있습니다 에 감사하다 너의 듣기! 구독하십시오

이것이 결과입니다 고맙습니다!

Facial Expression Detection with Deep Learning & OpenCV

도대체 여기서 뭐라구? 이봐 요, 왜 그렇게 슬퍼 보입니까? >> 타 노스는 스파이더 맨 형제도 아끼지 않았습니다 잠깐, 어떻게 알았어? >> 당신은 나를 마지막 날 얼굴의 감정을 감지하도록 훈련 시켰습니다

[음악] 얘들 아 어떻게되고 있니? 그것은 Ritesh이고 오늘 우리는 특별한 것을 창조하려고합니다 예, 우리는 표정 탐지기 프로그램을 만들려고합니다 그것은 그것이 우리의 웹 카메라를 사용할 것이고 내가 슬프고 화나게하는지 알려줄 것입니다 행복하고 너무 가능한 많은 것을 할 수 있습니다 글쎄, 나는이 비디오의 뒷부분에서 조금 이야기 할 것이다 괜찮아 자, 먼저이 데모를 보도록하겠습니다

그래서 여기에 프로그램이 있는데, "labelpy"프로그램을 클릭하면됩니다 그것은 열려있는 이력서 창을 창조 할 것이다 그 때 나가 그것에서 선물하는 경우에 검출하기 위하여 나의 웹 사진기를 이용한다 그 프레임의 의미인지 아닌지, 그리고 내가 화가 났는지, 행복하고, 슬픈 지 등을 말할 것입니다 아주 멋진 프로그램입니다 그래서 여기에서 볼 수 있습니다 그래서 사람들은 어떻게 시작하고 모든 일이 진행되는지 봅시다 승인

그래서 여기 당신은 그것을 볼 수 있습니다 내 GitHub 계정에 아주 좋은 저장소를 만들었고 그 이름은 Facial- 감정 탐지 및 여기에 Readme 파일이 있습니다 먼저 그것을 열었습니다 지금 나는 이미이 저장소가 당신이 행복하고, 슬픈 지 여부를 탐지하는 데 사용될 수 있다고 말했다 즉, 얼굴 표정이나 얼굴 감정을 감지합니다

좋아, 그럼 우리 계획은 뭐니? 우리의 계획은 3 단계 과정입니다 첫 번째는 OpenCV를 사용하여 "HAA R"또는 Haar Cascade를 만드는 것입니다 거기에 인터넷에 튜토리얼의 무리가 있습니다, 어디에서 다운로드 할 수 있습니까? 먼저 XML 파일을로드 한 다음, 이 XML 파일을 통해 프레임에 있는지 여부를 감지합니다 내가 선물이라면, 그것은 말할 것이다 내가 화가 나 행복하다면 등등이 비디오의 뒷부분에서이 용어를 잘 알고있을 것입니다 괜찮아 그래서 우선, 두 가지 종속성 만 있습니다

첫 번째는 "Tensorflow"이고 두 번째는 "OpenCV-python"입니다 이 비디오를 계속 진행하기 전에 설치해야하며 그렇지 않은 경우, 당신은 많은 오류를 얻을 것이고 거기에 갇힐 것입니다 괜찮아 첫 번째 단계는 OpenCV Haar Cascade를 구현하는 것입니다 Haar Cascade는 무엇입니까? 따라서 미리 훈련 된 모델은 미리 훈련 된 XML 파일을 의미합니다

OpenCV가 이미 제공하고 있으며 프레임이나 이미지의 모든 사람의 얼굴을 감지하는 데 사용됩니다 좋아, 그래서 나는 "labelpy"프로그램을 만들었다 여기있어 나는 여기가 아니라고 생각한다

괜찮아 IDLE로 편집하고 그 안에 무엇이 있는지 살펴 봅시다 그거 안에 뭐가 있나요? 괜찮아 먼저 우리는 cv2를 가져 왔습니다 그건 필수이고, 이 프로그램을 실행하지 않으면이 프로그램을 실행할 수 없습니다

나는이 용어들이이 비디오의 뒷부분에 무엇인지 말해 줄 것이다 좋아요, 그래서 우리의 분류자는 "cv2CascadeClassifier"입니다 Classifier라는 변수를 사용하여 XML 파일을로드한다는 의미입니다 그런 다음 OpenCV를 통해 웹 카메라를 열었습니다

즉, 실시간으로 라이브 비디오를 사용하고 있습니다 알았습니다 우선, 나는 이것을 소개 할 것이다 "label_image"프로그램은 프로그램이며, 내가 작성한이 저장소는이 저장소에 포함되어 있습니다 그리고 나서 크기는 4와 같습니다

이것은 단지 변수입니다 나는 이것이 무엇을하는지 말할 것이다 그런 다음 While True는 무한 루프를 의미하며, 그러면 웹 카메라에서 항상 읽힐 인스턴스가 생성됩니다 좋아, 그럼 내가 거울처럼 작동하도록 카메라를 뒤집었다 그런 다음 이미지 크기를 미니 크기로 조정했습니다

그리고 여기에서 높이와 너비가 모두 이미지 크기를 4로 나눈 것을 볼 수 있습니다 이미지의 크기가 1 x 4로 줄어들고 있음을 의미합니다 이미지의 초기 크기의 네 번째 부분을 의미합니다 그래서 그 후, 모든 얼굴은 XML 파일 로더 인 분류자를 사용하여 감지됩니다 그리고, 모든 [faces]에 대해, Faces List의 모든 Face에 대해 X, Y, W, H를 생성 할 것입니다

그것이 XYWH 등을 의미하는 좌표라는 뜻이고, 모두 웹캠으로 찍은 이미지, 그리고 나서 우리는 어떤 사람의 얼굴 주위에 직사각형을 만들었습니다 그게 바로 하얼 캐스케이드가하는 일입니다

괜찮아 그런 다음 해당 이미지를 저장하려면 "sub_face"가 있습니다 그런 다음이 파일을 사용하면 파일은 "testjpg"입니다 비디오 카메라에서 한 프레임을 추출하면 비디오, 라이브 비디오를 의미하고 디렉토리에 저장됩니다

모든 프로그램과 동일한 디렉토리이므로 JPG 파일 확장자의 이름은 "testjpg"입니다 좋아, 그럼 우리는 [read], 우리는 디렉토리에 이미지를 작성했습니다 그런 다음 텍스트, 이 비디오의 뒷부분에있는 텍스트를 알려 드리겠습니다 그때, 이 두 줄을 신경 쓸 필요가 없습니다

나는 나중에 당신에게 말할 것입니다 좋아요, 그럼 우리는 cv2 창에 그 텍스트를 놓은 다음 웹캠에 이미지를 표시했습니다 그래서 우리의 1 단계가 완료되었고 2 단계에서, 매우 복잡한 작업입니다 – 우리는 tensorflow 이미지 분류기를 사용하여 네트워크를 재교육 할 것입니다 YouTube에서 나를 팔로우하기 전에 내 채널에서 이미 많은 동영상을 보았습니다 과 끝까지이 비디오를보고 더 진행하기 전에 버튼처럼 부숴주십시오

괜찮아? 왜냐하면 YouTube에서 많은 도움이됩니다 그럼 내가 이걸 닫아야 해, 여기 우리가 간다 그래서 제 생각은 tensorflow Image 분류자를 만드는 것입니다 내가 행복하게 화가 났는지 여부를 알려줄 것입니다 그리고 나서이 모델에서 텍스트를 반환 할 것입니다

OpenCV 창에 표시하십시오 괜찮아 괜찮아

적어도 5 명 이상의 이사를 만들어야합니다 이 이름으로 원하는 것을 적게 또는 많이 할 수 있습니다 예를 들면, 화가, 진정, 행복, 슬픔, 하품 당신은 또한 놀랍고 라고 말할 수 있습니다 감정이나 얼굴 표현이 많이 있습니다 과 이 폴더에는 최소 100 개의 이미지를 넣으십시오 당신은 검색하여 인터넷에서 그들을 다운로드 할 수 있습니다

그들의 이름, 예를 들어, 구글에서 "화가 사람", 그것은 당신에게 이미지의 무리를 줄 것이다 그리고 당신은 그것을 다운로드해야합니다 좋아요 마찬가지로 모든 이미지를 채운 다음, 이 프로그램은 모든 이미지에서 얼굴을 잘라내는 데 사용할 수 있습니다

예를 들어, 모든 것을 채웠습니다 그 사람의 이미지가 담긴 폴더지만, 예를 들어 그 이미지에서 아주 멀리 떨어져 있습니다 우리는 단지 얼굴 만 원해

좋아, 그래서 우리는 얼굴 이미지 만 원하고이 프로그램을 작동 시키려면이 디렉토리를 변경하십시오 과 모든 것이 설정되고 새로운 폴더가 생성됩니다 모든 파일을 저장하기 위해 디렉터리를 지정하는 곳이라면 어디든지 이미지 또는 [사용자]라고 표시됩니다

그래서 당신이 얼굴의 이미지를 잘랐을 때까지 마지막 "이미지"폴더를 얻을 때까지이 단계를 반복하십시오 Ok, 마침내 명령 프롬프트를 열고 "Ctrl + C"로이 코드 행을 복사하십시오 그리고 그냥 실행하십시오 다시 훈련하고 싶지 않기 때문에이 작업을 종료하십시오 나는 이미 "retrained_graph"와 "retrained_labels

txt"파일을 가지고 있기 때문에 너만 필요해 그리고 재교육이 완료된 후 원하는 경우 모든 이미지를 삭제할 수 있습니다 그래서 그 모든 것을 삭제했습니다 그리고 마지막으로, 우리의 마지막 단계가 연극에 들어갑니다

이것은 매우 단순한 파일입니다 "label dot image", "label_imagepy"파일입니다 승인 그래서 열어 보겠습니다

이 프로그램은 이전 비디오, 이전 비디오, 시인을위한 tensorflow를 사용하여 네트워크를 리 트레이닝하는 동안 보시다시피, 그 비디오를 볼 수 있습니다 승인 그래서, 나는 함수를 만들었고 그 다음에는 최상위 결과만을 반환했습니다 결과는 많은 결과가 될 것이며 단일 레이블 만 반환했음을 의미합니다 좋아, 그럼 괜찮아 이제 "labelpy"프로그램을 두 번 클릭하면 바로 실행됩니다

괜찮아 그것이이 비디오를위한 것이므로이 비디오가 마음에 들었 으면합니다 그래서이 비디오를 시청 해 주셔서 감사 드리며 결국 구독하기를 잊지 말고 LIKE 버튼을 누르십시오 이 비디오가 당신을 도왔 던지 아닌지에 대한 논평을하십시오 물론이 비디오를 최대한 많은 사람들과 공유하십시오

PATREON은 YouTube에서 많은 도움이되기 때문에 제발 제발 도와주세요 그래서 너희들은 주셔서 감사합니다 안녕히 계세요 좋은 하루 보내세요 3 남자

Deep Learning Inference for Object Detection on Raspberry Pi

이 비디오는 ARM 프로세서 용 MATLAB에서 숙련 된 심 신경 네트워크의 코드를 생성하는 방법을 보여줍니다 대상 ARM 플랫폼은 ARM Cortex A 제품군과 같은 Neon 명령어 세트 아키텍처를 지원해야합니다

생성 된 코드는 ARM Compute 라이브러리를 활용합니다 특정 ARM 아키텍처에 최적화 된 저수준 소프트웨어 기능 모음 이미지 프로세싱, 컴퓨터 비전 및 기계 학습 애플리케이션을 대상으로합니다 보행자 검출을 심층적 인 학습 응용 프로그램 예제로 간주합니다 및 ARM 타겟으로 라즈베리 파이 3 명령 줄 API를 사용하여 네트워크 코드를 생성 할 수 있습니다

여기에서 생성 된 코드를 간단히 살펴 보겠습니다 우리는 레이어 클래스의 배열을 포함하는 C ++ 클래스를 생성했습니다 우리는 설정, 예측 및 사후 설정 방법을 가지고 있습니다 예측 메소드는 네트워크의 각 레이어에 대한 예측을 호출합니다 postsetup () 함수는 각 계층에 대한 버퍼 할당을 수행합니다

이러한 버퍼는 추론 중에 ARM 계산 라이브러리에서 사용됩니다 cnnbuild_rtw는 생성 된 Makefile입니다 이 메이크 파일을 사용하여 대상에서 응용 프로그램을 빌드 할 것입니다 opencv를 사용하여 비디오 입력 파일을 읽는 주 파일을 작성했습니다 추론을위한 예측 방법을 호출하고 출력을 표시합니다

이 파일을 내 Raspberry Pi에 내보내고 이제 대상에 코드를 작성할 수 있습니다 빌드가 성공하려면 ARM Compute 라이브러리의 경로가 올바르게 설정되었는지 확인하십시오 빌드 프로세스가 완료되면 테스트 비디오로 exe를 시작할 수 있습니다 초당 약 6 프레임의 속도로 라스베리 파이 (Raspberry Pi)에서 실행되는 보행자 감지를위한 신경망을 갖추고 있습니다 각 프레임에서 네트워크가 다른 관심 영역에있는 보행자를 감지하려고한다는 것을 알 수 있습니다 일단 발견되면 보행자를 추적 할 수 있습니다

그러나 그것은 또 다른 주제입니다 심층 학습 응용 프로그램의 코드 생성에 대한 자세한 내용은 비디오 아래의 리소스를 참조하십시오