Spreadsheet Understanding Using Statistics and Deep Learning

>> 안녕 저는 벤 존입니다 스프레드 시트 이해에 대해 이야기하겠습니다

두 개의 프로젝트 Jura와 Alex Polozov와의 공동 작업 인 ExceLient는 에머리 버거, 댄 바로우 스프레드 시트에 관한 것 수백만의 사람들이 사용한다는 것입니다 그들은 중요한 결정을 내리는 데 사용됩니다 재정적 결정, 경제적 결정 등과 같은 이 스프레드 시트 중 많은 부분에 실제로 오류가 있습니다 실제로 뉴스를 보면 Reinhart-Rogoff 스프레드 시트 하버드 경제학자가 개발 한 스프레드 시트는 긴축 정책을 정당화하는 데 사용 그리스 및 미국과 같은 국가를 포함합니다 Reinhart-Rogoff 스프레드 시트는 매우 복잡한 스프레드 시트는 부채의 역사 수백 년에 걸친 국가 Reinhart-Rogoff 스프레드 시트에서 찾은 것은 실제로 중요한 오류가 있었다 저자가 잘못된 결론을 이끌어 내도록 유도하십시오

이것의 핵심 메시지는 많은 사람들이 스프레드 시트를 사용하여 중요한 결정과 우리가하려고하는 것은 그들을 도울 스프레드 시트 사용자 스프레드 시트를 더 쉽게 이해하고 그들에게 더 나은 결정을 내 리도록 도와주십시오 먼저 ExceLient라는 첫 번째 도구부터 시작하겠습니다 내가 여기서 보여주는 것은 실제로 Reinhart-Rogoff 스프레드 시트 이 하버드 경제학자들이 처음 개발했습니다 특히 여기서 중요한 시트는 요약 시트입니다 여러 국가 미국에서 볼 수 있듯이 영국 등 24 개국

의 역사적 부채에 관한 정보 이들 국가는 경제 성장과 관련이 있습니다 이 스프레드 시트를 보면 매우 복잡해 보입니다 이 나라들처럼 미국에는 많은 데이터가 있습니다 에 대한 많은 데이터 행 1791 년에 미국에서 시작해 하지만 요약을 보면 당신은 왜 그것이 사용자로서 어렵다고 상상할 수 있습니다 이 스프레드 시트가 올바른지 아닌지를 이해합니다 기술에서 우리가 한 일 중 하나는 우리는 ExceLient라는 기술을 가지고 있습니다 구조를 매우 빠르게 이해합니다 통계를 사용하여 스프레드 시트의 특히이 버튼을 누르면 Reinhart-Rogoff 스프레드 시트의“Reveal Structure '' 색상이 정보를 인코딩 할 것입니다 사물에 대해 사용자에게 스프레드 시트에서 일어나고 있습니다

특히 회색은 데이터가 있음을 의미하며 일반 데이터이지만 회색은 시트의 일부 수식으로 참조됩니다 노란색은 특이한 요소이기 때문에 시트에있는 데이터 수식에서 참조되지 않는 이 프리젠 테이션에서 바로 보는 것은 이 데이터 범위는 어떤 공식에서도 사용되지 않습니다 좀 더 자세히 살펴보면 당신이 찾는 것은 그 공식입니다 여기 평균을 계산하는 실제로이 셀 범위를 평균에 포함시키지 않습니다 이것은 Reinhart-Rogoff 스프레드 시트의 버그입니다 특히 캐나다, 벨기에, 오스트리아 및 호주 평균적으로 계산되지 않습니다

사실, 그것은 잘못된 결론으로 ​​이어집니다 ExceLient와 함께하는 것은 매우 유용한 도구입니다 무슨 일이 일어나고 있는지 빠르게 이해 스프레드 시트를 작성하고 중요한 결정을 내립니다 상상할 수 있듯이 스프레드 시트를 만든 개인 및 원래 Reinhart-Rogoff가이 도구를 가지고 있었다면 그들은 이것을 매우 중요한 오류로 만들었을 것입니다 잘못된 결론으로 ​​이어집니다 우리는 또한 볼 수 있습니다 다른 시트 스프레드 시트 (예 : 미국) 이 구조를 밝히면 당신은 다른 색상을 다시 보여주는 참조 다른 열이 다른 방식으로 계산되고 있습니다

하지만 흥미로운 점은 우리가 여기 있다는 것입니다 본질적으로 우리는 의심 지수라고 부릅니다 이 특정 범위의 세포가 클릭하면 거기로 이동합니다 이 범위의 세포는 의심스럽고 여기 보시는 것은이 세포가 첫 번째 칸인 K7은 실제로 그 아래의 셀과 다른 공식 다시, 아주 빨리 스프레드 시트에서 버그를 발견하고 다시 버그를 찾을 수 있습니다 원본 스프레드 시트입니다

그래서 저자는 실제로 이해하지 못했습니다 괜찮아 이것이 ExceLient입니다 나는 당신이 그것을 시도하는 것이 좋습니다 실제로 온라인에서 사용할 수 있습니다

다른 기술이 있습니다 연구에서 우리가하려고하는 것 중 하나는 스프레드 시트에는 데이터가 모두 포함되어 있으므로 수식은 코드와 프레젠테이션입니다 인간과 같은 것 다른 사람과 의사 소통하려고합니다 따라서이 시트는 특히 이에 대한 예입니다 사용자에게 헤더가 있습니다

사용자는 다음과 같은 방식으로 데이터를 형식화했습니다 공백에 도움이되는 빈 행과 열이 있습니다 결과적으로 어디서 이 테이블의 시작과 끝은 실제로 완전히 명확하지 않습니다 따라서 프레젠테이션에는 명시 적이 지 않습니다 우리가 개발 한 것은 Jura 기술입니다 본질적으로 테이블을 찾으려고 노력하고 있습니다

주어진 시트는 기본적으로 임의의 경계입니다 Jura는 다음을 기반으로하는 기술을 사용합니다 모든 세포를보고 질문을하는 신경망 우리가 질문하는 신경망, 이 셀이 테이블의 1/4입니까? 우리가 가진 것은 능력이 있다는 것입니다 신경망이 어떻게 생각하는지 보여주기 위해 모서리와 우리가보고있는 것은 신경망이이 코너에 이 코너와이 코너는 모두 오른쪽 아래 모서리처럼 보입니다 그것이 파란색으로 인코딩되는 것입니다 여기 위 모서리는 왼쪽 위 모서리처럼 보입니다

그래서 그것이하려는 것은 전체 구조를 이해하는 것입니다 에 기초한 시트 개별 세포와 그것이 생각하는 것이 모퉁이입니다 모든 세포에 대한 전체적인 관점처럼 이해되면 우리의 기술 Jura는 기본적으로 테이블을 찾을 수 있습니다 그들이 찾은 시트에있는 모든 테이블을 보여주기 때문에 그리고 여기서 볼 수있는 것은 이것이 테이블이라는 것을 이해한다는 것입니다 예를 들어,이 특정 부분은 주석 인 테이블 Jura는 테이블의 일부로 계산하지 않습니다

각주와 비슷하기 때문에 의미가 있습니다 여기서 보여 드린 것은 서로 다른 두 가지 기술입니다 두 가지 기술을 사용합니다 통계 분석과 신경 네트워크 스프레드 시트를 이해하고 궁극적으로 사용자가 신속하고 효과적으로 사용할 수 있도록 그들의 스프레드 시트와 올바른 결론 시간 내 주셔서 감사합니다

YOLO Object Detection v2 (MATLAB Tutorial) using Deep Learning!

You Only Look Once-이 딥 러닝 객체 감지 알고리즘은 현재 R-CNN보다 성능이 뛰어난 최신 기술이며 그 변형입니다 몇 가지 다른 물체 감지 알고리즘을 살펴보고 왜 YOLO가 그렇게 잘 작동하는지, 어떻게 자동차를 분류하기 위해 로지스틱 회귀로 자체 YOLO 신경망을 구축 할 수 있을까요? 전체 코드와 패키지 목록은 여기에서 찾을 수 있으며 내 비디오와 함께 코드를 사용하여 30 분 이내에이 YOLO Detector를 작성하는 데 많은 도움이됩니다! https://www

mathworkscom/help/deeplearning/examples/object-detection-using-yolo-v2html Mathworks의 MATLAB r2019a를 사용하고 있습니다 최신 버전의 MATLAB에서이를 복제 할 수 있어야합니다 이 비디오는 Siraj Raval과 그의 YOLO Tensorflow 기술과 튜토리얼에서 영감을 받았습니다

나는 MATLAB을 위해 하나를 만들기로 결정했습니다! 구독하고 좋아요 댓글 어쩌면 공유? 이 중 하나라도 대단히 감사하겠습니다! 그것은 나의 일을 계속하고, 당신들을 위해 AI (인공 지능) 비디오를 계속 만들도록 격려합니다! YOLO 네트워크 Matlab 2019, 딥 러닝 신경 네트워크, CNN, 인공 지능을 만드는 방법 제 이름은 Rishabh Jain이며 오늘 Yolo 버전 2 딥 러닝 비디오에 오신 것을 환영합니다

물체 감지 및 MATLAB 2019 년 오늘 우리는 당신의 세계를 한 번만 살펴볼 것입니다 이 비디오 후에 완성 된 열차 Yolo 감지기를 만들 것입니다 모델이 어떻게 작동하는지 배울 것입니다 다양한 데이터 세트를 다운로드하여 모델을 학습시키고 마지막으로 모델을 감지하여 이 경우 자동차가 될 개체를 설명하십시오 먼저 개요로 Yolo가 무엇인지 살펴 보겠습니다 그런 다음 필요한 다운로드 자동차 이미지가 포함 된 사용 가능한 데이터 세트를로드하는 도구 상자 및 관련 라이브러리 Yolo 감지기를 훈련하고 마지막으로 모델을 평가하고 테스트하여 비디오 내에서 전체 요약을 제공합니다 우선 Yolo가 무엇입니까 Yolo는 한 번만 보이며 여러 단계가 있습니다

이러한 단계는 다음과 같이 먼저 전체 이미지에 신경망을 적용합니다 이미지를 그리드로 나누고 예측과 확률로 상자를 정의하십시오 다음으로 로지스틱 회귀 분석을 사용하여 각 그리드 내의 각 클래스에 대한 확률을 계산합니다 여러 클래스에 대해 서로 다른 회귀 모델을 사용합니다 예를 들어 다른 객체는 하나를 사용합니다 자동차 등을 훈련시키는 로지스틱 회귀 마지막으로 우리는 어떤 상자 또는 미니 그리드 사각형이 더 높은 확률을 갖는지를 결정합니다

로지스틱 회귀 모델을 훈련시키는 객체 또는 클래스는 우리 앞에 모범이 있으면 이해하십시오 예를 들어이 그리드에서 우리는 지구 전체를 볼 수 있으며 지구 내의 모든 국가는 우리가 찾으려고 노력하고 있다고 말합니다 특정 국가 (예 : 미국) 처음에 일어날 일은 먼저이 그리드의 그리드를 상자 전체에 배치하는 것입니다 기본적으로 이미지 전체에 신경망 적용 그럼 우리는 하나의 수업 만 가질 것이고 우리는 단지 예측하려고 노력하기 때문에 미국이라는 것이 있는지 여부 우리는 로지스틱 회귀를 넣을 것이고 우리는 하나의 모델을 가질 것입니다 우리는 미국인 클래스를 하나만 가지고 있으며 우리가 우리에게 가능성을 계산할 것입니다 각 그리드 박스에 있습니다 예를 들어, 왼쪽 상단에 0 0이 있고 그 사실을 알고있을 것입니다 우리를 데려 갈 확률도 05 % 예를 들어 2 3과 같은 상자가있는 동안 멕시코의 일부는 확률이 높을 수 있습니다 어떻게 든 더 가깝고 로지스틱 회귀 모델이 그것을 말할 수 있기 때문에 기본 박스만큼 높지 않기를 바랍니다

2 2에 위치하고 왼쪽은 다양한 이미지에서 신경 네트워크를 훈련시킵니다 예를 들어 훈련시킬 수 있습니다 여러 개의 지구본이 이미지와 같으며 모델에 그리드 선을 그려 확률을 계산할 수 있습니다 각 상자마다 결국, 우리는 어느 박스가 미국을 포함하는지 예측할 수있는 신경망을 보게 될 것입니다 정확하고 좋은 시간에 Yolo를 사용할 때 한 가지만 기억합시다 우리는 실제로 실시간 테스트 및 훈련 절차를 가지고 있습니다 로지스틱 회귀 분석을 사용하고 있기 때문에 상당히 빠른 평가 우리는 일반적으로 필요한만큼의 데이터를 필요로하지 않습니다 로지스틱 회귀 및 데이터 양은 사용중인 클래스에 따라 변경 될 수 있습니다

2 단계로 넘어 갑시다 MATLAB에서 라이브러리 및 도구 상자를 다운로드하는 것은 매우 간단하며 이미 몇 가지가 있어야한다고 가정합니다 전에 기계 학습 또는 딥 러닝 프로젝트를 수행 한 경우 도구 상자 따라서 컴퓨터 비전 툴박스 딥 러닝 툴박스와 병렬 컴퓨팅 툴박스가 필요합니다 선택적으로 네트워크를 직접 훈련시키고 사전 훈련을 필요로하지 않는 경우 작업 속도를 높이고 작업을 좀 더 호환성있게 만드는 NVIDIA GPU 그 외에는 매우 간단합니다 대부분이 이미 설치되어 있어야합니다

이미 딥 러닝 도구 상자가있는 경우 ResNet 50 네트워크에 대한 딥 러닝 툴박스 모델이 있어야합니다 하지만 일단 MATLAB에서 코드를로드하면 그것은 당신에게 경고하고 당신이 잃어버린 것과 우리가 모두 가지고 있기 때문에 지금 당신이 무엇을 필요로하는지 알려 주어야합니다 설치된 모듈 및 라이브러리 사전 훈련 된 검출기 다운로드를 시작하겠습니다 이 예는 사전 훈련 된 감지기를 사용하여 예없이 Train Yolo v2로 감지기를 훈련 시키려면 훈련이 완료 될 때까지 기다려야합니다 코드에서 볼 수 있듯이 객체 감지기 기능은 훈련 훈련 변수를 true로 설정합니다 그렇지 않으면이 코드를 사용하여 사전 훈련 된 검출기를 다운로드하십시오

다음으로 데이터 세트를로드합니다 이 예는 다음을 포함하는 소형 차량 데이터 세트를 사용합니다 각 이미지에 295 개의 이미지에는 하나 또는 두 개의 레이블이있는 차량 인스턴스가 포함되어 있습니다 작은 데이터 세트는 Yolo v2 교육 절차를 탐색하는 데 유용합니다 그러나 실제로 강력한 검출기를 훈련시키기 위해서는 더 많은 라벨링 된 이미지가 필요합니다 훈련 데이터는 테이블에 저장됩니다 첫 번째 열에는 이미지 파일의 경로가 포함되고 나머지 열에는 ROI가 포함됩니다 차량 라벨 다음으로 데이터 세트의 이미지 중 하나를 표시하여 포함 된 이미지 유형을 이해합니다 코드를 사용하여 화면의 오른쪽에 보이는 것처럼이 예제 이미지를 실제로 표시합니다 금후 탐지기를 훈련시키기위한 데이터 세트와 탐지기를 평가하기위한 테스트 세트로 데이터 세트를 분할합니다

교육용 데이터의 60 %를 선택하면 나머지는 평가 용으로 사용됩니다 먼저 이미지 입력 ​​크기와 클래스 수를 지정하십시오 이미지 입력 ​​크기는 훈련 이미지의 이미지 크기보다 커야합니다 이 예에서는 RGB 또는 3 가지 색상이 있으므로 이미지 또는 2 24 x 2 24 x 3 다음으로 앵커 박스의 크기를 지정하겠습니다 다음으로 사전 훈련 된 ResNet 50을로드합니다 피처 레이어를 지정하고 yolo 감지 네트워크 생성 마지막으로 Yolo 물체 탐지기를 훈련시킵니다 아래 설명에서 나머지 코드와 함께이 코드 섹션을 찾을 수 있습니다

화면의 공간이 부족하여 코드를 모두 표시 할 수 없기 때문에 코드의이 부분은 설명에 있습니다 기본적으로 테스트 세트에있는 다양한 이미지가 모두 포함 된 테이블을 만든 다음 실행합니다 각 이미지의 검출기는 평균 정밀도뿐만 아니라 로그 평균 미스율을 계산합니다 그래프를 작성하면 다음과 같은 것을 찾을 수 있습니다 이 예제는 딥 러닝을 사용하여 차량 감지기를 훈련시키는 방법을 보여줍니다

교통 표지판 탐지기를 훈련시키기 위해 비슷한 단계를 따를 수 있습니다 딥 러닝에 대해 더 배우기위한 보행자 또는 기타 대상 아래 설명을 확인하고이 비디오에서 다시 언급 한 다른 코드를 다운로드하거나 배우십시오 설명을 확인하십시오 시청 해주셔서 감사합니다 이 채널을 좋아하고 구독 해주세요 다음에 you겠습니다

Fallout 4 – Intro Cinematic (Colorized using AI Machine Learning) [IMPRESSIVE RESULTS]

전쟁 전쟁은 결코 변하지 않습니다

1945 년 내 위대한 할아버지, 군대에서 복무하고 그가 집에 갈 때를 궁금해했다 그의 아내에게 그는 본 적이없는 아들이었습니다 그는 그의 소원을 얻었다 미국이 제 2 차 세계 대전을 종식 시켰을 때 히로시마에 원폭 투하 나가사키 세계는 아마겟돈을 기다렸다 대신에, 기적적인 일이 일어났습니다

우리는 무기가 아닌 원자 에너지를 사용하기 시작했고 거의 무한한 권력의 근원이되었습니다 사람들은 한때 공상 과학의 영역을 생각한 사치를 즐겼습니다 가정용 로봇, 융합 – 구동 자동차, 휴대용 컴퓨터 하지만, 21 세기에 사람들은 아메리칸 드림에서 깨어났습니다 수년간의 소비로 인해 모든 주요 자원이 부족합니다

전 세계가 풀렸다 평화 먼 기억이되었습니다 지금은 2077 년입니다 우리는 총 전쟁의 위기에 서서 나는 두렵다 나 자신을 위해 내 아내 한테, 나의 유아 아들을 위해 군대에서 나의 시간이 나에게 한가지를 가르쳤다면 : 그 전쟁이야 전쟁은 결코 변하지 않습니다

Improve Machine Learning Predictions using Graph Algorithms

알았어 큰

음, 여기로 가자 그래서 나는 약간의 이야기로 시작하고 싶다 설명하는 것만으로 왜 우리는 그래프와 관계를 사용하고 싶은가? 우리의 기계 학습을 향상시킵니다 이것은 일종의 흥미로운 상황이다 투표와 흡연을 생각하는 곳, 두 가지 매우 다른 유형의 행동, 실제로 공통점이 있습니다

예측 결과까지 그리고 연구가있었습니다 실제로 게재 된 누군가가 투표할지 여부를 예측할 수 있습니다 또는 누군가가 담배를 피우는지 여부 그들의 친구를 기반으로, 그래서 그들의 친구 투표 여부 그들은 투표 할 확률이 더 높거나 낮을 것입니다 흡연 행위와 동일합니다

그보다 더 흥미로운 것은 무엇입니까? 많은 개인 정보가 없어도된다 또는 개인에 관한 인구 통계 학적 정보, 직계의 친구뿐만 아니라 그러나 그들의 친구들의 친구들, 그래서 그들은 심지어 만난 적이없는 사람들, 우리는 매우 정확하게 예측할 수 있습니다 누군가가 투표하거나 연기 할 가능성이 있는지 여부 그래서, 그 이야기가 실제로 보여주는 것 관계가 행동을 매우 예언하고, 이 책에는 여러 권의 책이 있습니다 제임스 파울러 (James Fowler)는 Connected 몇 년 전

나는 책 추천을 좋아한다 그래서 나는 다른 두 권의 책이 있다고 말 할거야 친구의 힘에 대해서 데이비드 버 커스 (David Burkus)는 친구의 친구 (Friend of Friend) 다음 번 기회를 찾고 있다면 다음 경력 변화 이해하기 좋은 책입니다

네트워크의 관계 실제로 앞으로 나아갈 수 있습니다 네트워크 과학자 Barabasi의 공식 또한 관계가 어떻게 보이는지 살펴 봅니다 관계 내의 패턴 실제로 일반적인 성공을 위해 사용될 수 있습니다 그래서, 정말 훌륭한 3 권의 책, 이 주제에 관심이 있다면 그리고 더 깊은 다이빙 거기에 좋은 재료가 많이 있습니다

나 자신과 제니퍼를위한 연락처 정보는 여기 예측을위한 그래프를 살펴볼 것입니다 우리는 연결된 기능을 살펴볼 것입니다 링크 예측, 구체적으로, 그런 다음 워크 플로를 살펴 보겠습니다 Neo4j와 Spark 모두 함께 좋아, 전통적으로, 분석 할 수있는 다양한 방법이 있습니다

데이터 분석, 기계 학습 등을 사용합니다 많은 이들이 전통적인 플랫폼을 사용하고 있으며, 관계형처럼, 정말 좋다 많은 양의 데이터를 저장할 때, 하지만 때로는 (오디오가 끊어짐) 찾고 그 다른 관점에서 조금 복잡해진다 그 다음 관점은 큰 데이터 기술을 사용하여 찾고 있습니다 우리는 정말, 정말 집계에 능숙합니다

및 필터링 데이터, 하지만 많은 시간이 그 쿼리 정말로, 정말로 길게 달릴 수 있고, 그 모든 데이터를 다 잡으려고하는 것뿐입니다 모든 것을 집계하십시오 그래서, 이것은 Neo4j가 들어오는 곳입니다 연결된 구조를 사용합니다 그래프 이론에 기초 노드와 관계가있는 데이터가 어떻게 연결되어 있는지 보여주는 각각의 개별 점 관계형 데이터베이스에서 가질 수있는 또는 큰 데이터 기술, 그 점들의 각각을 어떻게 보여줄 것인가? 서로 연결됩니다

그래서, 이것은 우리가 오늘 집중할 구조입니다 기계 학습 및 링크 예측을 사용하여 그래프 데이터베이스와 같은 것으로, 그래프 기술, 백 엔드로서 예측을 돕기 위해 그래서 그래프는 실제로 커지고 있습니다 지난 몇 년 간 인기를 얻었습니다 너희들이 익숙하다면 (오디오가 끊어짐) 그것은 단지 종류의 계급 나오는 콘텐츠 양에 따라 서로 다른 기술의 동향을 보여줍니다 그리고 당신이 볼 수 있듯이, 그래픽이 대단히 커졌습니다

지난 몇 년 동안 그러나 무엇이 또한 정말로 흥미 롭다 지난 몇 년 동안, 인공 지능도 인기가 높아지고 있습니다 그래서, 이것은 찾고 있습니다 다른 용어로, 그래프 신경 네트워크처럼, 그래프 학습, 그래프 완성, 임베딩, 등등, 인기를보고있다 이 용어가 나타나는 외모의 수 이 연구 조사가 시작되었습니다

그리고 그것은 계속해서 증가하고 있습니다 그래서 우리는이 두 가지를 하나로 묶을 것입니다 이 두 가지가 인기가 높아지고 있으며, 당신은 실제로 그들을 함께 사용할 수 있습니다 예측을 향상시키기 위해 따라서 기계 학습에 익숙하다면, 당신이 지금 그 공간에서 일하고 있다면, 당신은 아마 기계 학습을 알고 있습니다 많은 데이터가 필요합니다

그래서, 그것은 알고리즘을 사용합니다, 구체적인 예를 든 훈련 된 소프트웨어, 그런 다음 예제를 통해 배웁니다 더 나은 개선을 위해서 다음 번에는 더 나은 예측을 할 수 있습니다 그래서 계속해서 (오디오가 끊어짐) 우리가 이미 가지고있는 엄청난 양의 데이터에 대해서, 당신은 그 더 나은 점수에 더 가까워지고, 예측 (more) (오디오 차단), 기타 등등 이러한 오류를 줄이려면 그러나 그것은 당신이 엄청난 양의 데이터를 가져야 함을 의미합니다 그저 계속해서 이미 가지고있는 것에서 배울 수 있어야합니다

미래에 발생할 수있는 일에 대한 예측을하십시오 – 그래, 그거 재미있는 얘기 야 내가 그 중 하나를 말할 것이기 때문에 우리는 많은 데이터 과학자들의 의견을 듣는다 우리는 "나는 결코 충분한 데이터를 가지고 있지 않습니다 방금 더 많은 데이터가 있다면, 또는 방금 더 많은 데이터가있는 경우, 나는 나의 예측에서 더 정확할 것이다

" 그래프로 할 수있는 것들 중 하나 기계 학습 파이프 라인을 사용하는 것입니다 넌 이미 가지고있다, 이미 가지고있는 데이터를 사용하십시오 이러한 그래프 요소를 추가하십시오 이미하고있는 일에 정확도를 높이려면 정확성, 그리고 당신이 가지고있는 회상, 우리가 본 것처럼 몇 분 전, 그 관계는 실제로 행동을 예언합니다 우리가 가지고있는 많은 모델들 데이터 과학에서 이러한 복잡한 관계를 무시하십시오

그들은 네트워크의 토폴로지를 무시하고, 그래서 당신은 기본적으로 그 데이터를 버리고 있습니다 넌 이미 가지고있다, 추가 할 수 있습니다 기존 모델에 대한 예측 기능, 심지어 몇 가지 예언이 떠오른다 관계에 기반한 그렇지 않으면 너는 전혀 볼 수 없을 것이다 이제는 다양한 분야가 있습니다

너 여기서 볼 수있어 상당히 다른 산업이 있다는 그래프를 사용할 수있는 영역 사람들이 사용하는 데이터 과학 데이터 과학 우리가 많은 사람들과 이야기하는 가장 중요한 것들 중 하나 금융 범죄입니다 따라서 사기 탐지, 패턴을 이해하고, 정말 밀접하게 지역 사회를 짜다 그 사이에 단단히 짜여진, 하지만 나머지 네트워크에서는 그렇지 않을 수도 있습니다

그래서, 작은 섬들이 사기를 예측할 수도 있습니다 돈세탁은 금융 분야에서 흔히 사용되는 또 다른 방법입니다 나는이 모든 것을 통과하지 않을 것이다 그러나 또 다른 정말로 흥미있는 하나는 추천이다 누군가가 어디에 있는지 이해하면 구매주기의 길 그리고 추천을 할 수있는, 과거의 구매에만 국한되지 않고, 뿐만 아니라 그들의 관계에, 그들이 어떻게 커뮤니티를 형성 할 것인가 보다 개인화 된 추천을 알릴 수 있습니다

또 다른 흥미로운 사실은 용어 예측입니다 구독 서비스가있는 경우, 당신은 분명히 예측할 수 있기를 원합니다 누군가 가능성이 있다면 앞으로 가입자가되지 않게하려면, 그러나 더 재미있는, 또는 그 이외에, 나는 재미 있다고 생각한다 영향력있는 사람이 네트워크에서, 매우 인기있는 누군가를 어떻게 예측할 수 있습니까? 또는 영향력이 큰 사람 실제로 다른 사람들을 끌어들일 수 있습니다 그들이 돌아올 때

따라서 파문 효과가있을 수 있습니다 그래서, 많은 다른 용도 다양한 분야에서, 우리가 볼거야 그래프가 데이터 과학에 어떻게 추가 될 수 있는지 일반적으로, 큰 의미에서, 우리는 사람들을 돕는 것에 대해 이야기합니다 지식 그래프로 더 나은 결정을 내리고, 피쳐 엔지니어링을 통한 정확도 향상, 또한 더 많은 적용 성 그래프 네이티브 학습으로 더욱 신뢰 할 수 있습니다

오늘은 특별히 집중할 것입니다 그래프 기능 엔지니어링 정확성을 높일 수 있습니다 – 제니퍼 좋아 그럼 우린 뛰어 넘을거야

지금부터 봐 연결된 기능은 무엇입니까? 어떻게 이들을 사용 하는가? 기본 정의가 있습니다 연결된 기능들 기계 학습 주제에 익숙하다면, 기본적으로 제공되는 기능입니다 그래프 구조로부터

그래프에 대한 연결 관련 메트릭입니다 관계의 수와 같은 것들 노드를 들락날락하고, 잠재적 인 삼각형, 그 수, 또는 아마 이웃 공통점 그래서, 그것들은 모든 것입니다 데이터에 의존하는 그래프 구조로 연결됩니다 연결된 피쳐를 어떻게 파생시킬 수 있습니까? 몇 가지 다른 접근 방식이 있습니다

당신은 이것에 사용할 수 있습니다 그리고 당신은 좀더 스펙트럼을 볼 수 있습니다 슬라이드에 당신은 사물의 질의 끝을 가지고있다 왼쪽에, 이는 오디오 (오디오 컷 아웃) 쿼리와 같은 것입니다

실시간 지역 의사 결정 패턴 머신 일종의 그것이 주제 전문가가있는 곳입니다 그들이 원하는 것을 아는 사람 그 결정을 내리는 것 그들이 쿼리를 작성할 때 결과를 다시 얻으십시오 그래서, 당신은 예언적인 것을 알고 있습니다, 또는 귀하의 주제 분야 전문가가 무엇이 예언인지 알고 있습니다 스펙트럼의 다른 끝에서, 너 오늘 우리가 얘기 할거야, (오디오가 잘리는) 라이브러리인데, 기계 학습 관행과 연결됨 전체 네트워크 구조를 전체적으로 볼 때, 그래서 전반적인 구조를 보아라

그 구조에 대해 배우고, 어떻게 네트워크, 업데이트 방법, 그런 다음 (오디오 컷 아웃) 예측 새로운 구조 또는 새로운 연결 따라서 알고리즘을 사용하십시오 모양이 예측 적이라는 것을 알게되면, 하지만 당신은 정확히 어떻게 알지 못합니다 따라서, 그래프 피처 엔지니어링 기본적으로 몇 가지 추가 기능을 추가합니다 그래프 중심입니다

그럼 저기있는 탁자를 보면 오른쪽 구석에 왼쪽에 그래프가 보입니다 몇 가지 기능이있을 수 있습니다 이름, 나이, 집, 성별, 그 사람이 살아 있든 없든간에 예를 들어, Game of Thrones 데이터 세트 우리가 알고리즘과 함께 자주 사용하는 우리는이 분야를 볼 수 있습니다 전통적인 기계 학습 모델에서, 하지만 실제로 그래프를 추가하면 몇 가지 추가 기능 그것은 우리가 어떤 것을 더 잘 예측할 수있게 도와줍니다

그래서 우리는 문자 페이지 순위와 같은 것을 추가 할 수 있습니다 또는 그들의 정도 중심 또는 지역 사회의 일부가 될 수도 있습니다 다시 말하지만, 모든 것들은 관련되어 있습니다 그 노드가 어떻게 그래프에 들어 맞는지 그 주변에 연결된 것은 무엇입니까? 우리는 그런 것들을 사용할 수 있습니다 더 나은 예측, 그 사람이 무엇에 연결되어 있는지에 따라 실제로 예측할 수 있습니다

특정 결과 또는 더 나은 결과 전통적인 기능보다 더 좋습니다 그래서, 그것들을 사용할 수 있습니다 추가 기능을 추가하려면 이미 가지고있는 것에 이에 대한 예측을 개선하는 데 도움이됩니다 그래서, 우리는 다양성을 가지고 있습니다 그래프 알고리즘 Neo4j의 알고리즘 라이브러리 안에 있습니다

이것은 작년에 꽤 많이 성장했습니다 우리는 단지 3 개의 영역을 가지고 있었지만, 우리는 그 이후로 아래 세 영역을 추가했습니다 아마 지난 몇 개월 동안 그래서 왼쪽 구석에 (오디오가 끊어짐) 커뮤니티 탐지 알고리즘이 있습니다 및 (오디오가 잘리지 않음) 해당 알고리즘이 떨어집니다

이 카테고리에, 그러나 그것은 단지 어떻게 그룹을 본다 함께 모이다 또는 그들이 어떻게 부서지지 않는 경향이 있는지 따라서 데이터가 분할되는 동안 다른 클러스터 또는 다른 커뮤니티로 다음에 중심성이나 중요성이 있습니다 이것은 그래프의 개별 노드를 봅니다 그들의 영향력에 점수를 매기려고합니다

네트워크 내에서의 중요성 각 개별 노드에 대해 우리는 이러한 알고리즘을 많이 실행했습니다 이상하고 재미있는 재미있는 것들 누가 브리지 노드가 될지 알아보기 만하면됩니다 또는 그룹을 함께 연결하는 사람 경로 찾기 및 검색은 최적의 경로를 찾습니다 또는 네트워크를 통한 경로, 그래서 최단 경로와 같은 것들 또는 근접성 중심성, 결정하려고 애 쓰고, 또는 나를 용서하십시오, 그것은 중심이었습니다

그래서 길 찾기와 경로, 그냥 최고의 경로를보고, 네트워크를 통한 나의 최적 경로는 무엇인가? 품질, 가장 빠른, 또는 효율성, (오디오 컷 아웃) 모든 종류의 분산 이러한 알고리즘에 대해서도 마찬가지입니다 그 밑 부분은 우리는 오늘 대부분 대화를 나눌거야 링크 예측에 대해 기본적으로 우리는 그래프에 노드를 가지고 있습니다 함께 연결되지 않은 우리는 예측하려고 노력하고 싶다

그 노드들이 미래의 관계를 가지면 또는 미래 링크, 그 다음 오른쪽에있는 모든 길, 유사점이 있습니다 그래서, 이것은 노드의 계산을합니다 "이 두 노드가 얼마나 유사한 지, 결과에 따라 계산에서 나온 것인가? " 그리고 마지막으로 센터의 회색 새로운 세그먼트 중 하나입니다 우리의 (오디오는 자른다) 알고리즘 조금 더 실험적입니다

하지만 우리는 그래프를보고 (오디오가 잘려나 간다) 그래서, 이것은 표현을보고 있습니다 그래프의 연결성 또는 토폴로지 그래서, 여기가 점점 시작됩니다 깊은 학습에 그래프 네이티브 학습 – [Amy] 좋아

자, 구체적으로 살펴 보겠습니다 링크 예측에 대해서는, 일반적으로, 링크 예측을 생각하면, 우리는 미래에, 링크가있을 가능성이 얼마나 높습니까? 또는 우리 데이터에 뭔가가 있습니다 우리가 놓친 것 거기에 있어야합니까? 그래서, 보통 시간 요소로 시작합니다 당신은 그래프를 가지고 있습니다, 시간 플러스 1과 플러스 1, 가능성이있는 링크는 무엇입니까? 그리고 당신은 그런 종류의 것을 계속할 수 있습니다 그래서 일반적으로 그런 종류입니다

대개 측정 값을 기반으로합니다 네트워크에서의 위상 근접성, 그리고 그것은 물리적 친밀 성이 아닐 수도 있습니다 그것은 수, 그러나 친밀감일지도 모른다 그것은 관계의 강점과 관련이 있기 때문에, 관계 수, 노드의 무게와 그 자연의 것들 따라서 링크 예측을 사용하는 방법의 예 내가 정말 좋아하는 웹 사이트에 있습니다, Het

io, 들어가서 확인해 볼 수 있습니다 Hetionet은 프로젝트의 이름이며, 그러나 그들은 수십 년의 생물 의학 데이터를 가지고있다 지식 그래프에 통합 된 그 정보를 사용합니다 repurposing 마약 봐 그래서 그래프의 구조를 사용합니다

기능을 만드는 방법 그래프 알고리즘 및 쿼리 사용 및 다양한 방법 링크를 예측하려고 시도한다 다른 유전자와 약 사이 음, 유전자와 의학적 조건 그리고 잠재적 약물 따라서 실제로 온라인에 접속할 수 있습니다 이 데이터를 검색합니다

그것을 통해 탐색하는 것은 재미있는 일종의, 그러나이 예에서 오른쪽에, 당신은 유전자가 있음을 알 수 있습니다, IRF 하나, 다발성 경화증을보고, 그 유전자 사이에는 직접 경로가 없다 그 질병, 그러나 간접적 인 경로가 있습니다 그래서, 우리는 Crone 's 또는 다른 유전자, 간접적 인 연결이 있다는 것을 따라서 기능을 만들 수 있습니다 이들 간접 경로의 구조에 기초하여, 그런 다음 기계 학습을 예측하여 이 특정한 약물 상호 작용을 가진이 유전자가 실제로 상호 작용과 관련이있을 수 있습니다 또는 재사용 할 수있다

새로운 질병 따라서 이미 승인 된 약물의 용도를 변경할 수 있습니다 그래서, 그것은 단지 하나의 예입니다 그래프 알고리즘을 사용할 때, 사람들이 그래프 알고리즘을 사용하는 몇 가지 다른 방법이 있습니다 왼쪽에는 장군님이 있습니다

탐험, 측정, 미래 계획 당신은 나오는 특정 점수를 가지고 있을지도 모릅니다 어쩌면 유사성 점수, 어쩌면 페이지 순위 점수, 임계 값을 설정할 수도 있습니다 그리고 말하자면, "이봐, 임계 값 수가 X보다 큰 경우, 우리는 한 가지 방법을 예측할 것입니다 X보다 작 으면 다른 것을 예측할 것입니다

" 따라서 그래프 알고리즘을 사용할 수있는 방법 중 하나입니다 특히이 이야기에 대해, 기능 공학 기계 학습, 사람들이 일반적으로하는 일 알고리즘을 실행하고 있습니까? 그들은 점수 나 라벨을받습니다 그리고 나서 그들은 테이블에 그것을 넣었고, 여기에서 볼 수 있듯이, 그리고 나서 그들은 그 테이블에 대해 훈련을합니다 그게 그 과정이야 우리가 여기서 걸을거야

– 좋아, 그래서 한발로 뛰어 들었어 우리가 이것과 함께 사용한 특별한 예 학술 협력을 예측하고 있습니다 그래서 우리의 유스 케이스는 여기에있다 인용 네트워크 데이터 세트를 가져 가고 있습니다 우리 넷 마이너 (Net Miner) 그래서 거기에서 몇 가지 데이터를 가져 와서, 기본적으로 52,000 개의 논문이 있으며, 80,000 명의 저자, ​​140,000 명의 관계 그 저자들 사이에, 그 다음 29,000 명의 인용 관계

그래서 꽤 많은 데이터가 있습니다 하지만 우리는 그 데이터를 Neo4j에 버렸습니다 공동 저자 그래프를 만드는 방법 특정 저자가있는 곳을보고 어쩌면 함께 일한 것일 수도있다 특정 연구 논문 또는 논문 또는 다른 유형의 재료, 연결된 피쳐 엔지니어링을 통해이를 실행했습니다 Neo4j 그래프 알고리즘을 사용하여, Spark와 MLlib 같은 것을 사용한다

모델을 훈련하고 테스트하기 무작위 포리스트 분류자를 사용합니다 그래서 우리는 실제로 그 과정을 밟을 것입니다 우리가 그걸 어떻게했는지 보여주는 종류, 그 결과는 어떻게 생겼는지 그래서 다음 슬라이드에서, 우리는 우리의 링크 예측 워크 플로우를 가지고 있습니다 물론 데이터를 추출해야합니다

특정 데이터 소스에서 이 경우 Net Miner (Net Miner) 그 모든 저자들을 끌어 당기고, 그리고 나서 그들이 쓴 기사들, 그런 다음 우리는 그 데이터를 탐색하는 것을 살펴볼 것입니다 그것을 청소, 필요에 따라 수정 그래서 모든 것이 다소 (오디오가 잘리는) 순서로 보입니다 기계 학습을위한 모든 준비, 이것은 당신이 당신의 특징을 파악하는 곳입니다 예측력있는 것, 그리고 (오디오는 잘립니다) 그 모델을 훈련하고, 결과 평가, 그런 다음 (오디오를 잘라내어) 프로덕션으로 가져옵니다

그리고 이것은 다음 단계에 대한 일반적인 단계가 아닙니다 여기에서 볼 수 있듯이 가능한 반복이 있습니다 단계를 시작할 수있는 곳 가서, "이 말이 옳지 않아, 또는 나는 약간 조정할 필요가있다 " 그리고 한 두 걸음 뒤로 물러서 라 사물을 재평가하고 수정하고 수정하십시오 그래서 우리는이 과정을 거치게됩니다

각 시점에서 우리의 데이터가 어떻게 보이는지 보여줍니다 먼저 데이터를 가져옵니다 우리의 공동 저자 그래프를 만들 수 있습니다 이제 그래프 데이터 모델을 정의해야했습니다 그래서 우리는 우리가 원하는 것을 알아 내야했습니다

그래프 내부에 보이는 데이터 들어오는 데이터 맨 위에있는 형식이 더 많았습니다 그래서, 우리는 특정한 기사를 가지고 있습니다 그것이 출판 된 제목과 연도와 함께, 그런 다음 두 명의 저자가 있습니다 잠재적으로 하나 이상의 저자, ​​물론, 그 기사를 썼다

참여하여 참여했다 그리고 물론, 당신은 저자 이름, 그들은 관계가있다 저자가 그 특정 기사를 썼다는 것, 이 경우 특정 기사를 저술하거나, 그러나 우리는 실제로 예측하고 싶다 저자들은 서로 협력하고있다 따라서 필자는 필수적으로 기사를 필요로하지 않으며, 우리는 특정 저자가 있다는 것을 알아야합니다

다른 저자와 함께 작업 한 연구 프로젝트에 따라서 그래프 데이터 모델로 끝납니다 거기에 저자 노드가있는 곳에 우리는 공동 저자 관계가 있습니다 이 저자들을 연결시켜주는 그 관계에 대한 특별한 해 말하자면 그들은 어느 시점에서 함께 일 했는가? 그들이 일한 해 다음은 살펴 보겠습니다 미안, 에이미

오, 나는 같은 방향으로 가고 있다고 생각해 그래, 그럼 우리가보기 시작했다 실제로 이것에 몇 가지 그래프 기능을 만들 때, 그래서 우리의 기능 엔지니어링, 그리고 물론, 심지어 당신이 그것을하기 시작하기 전에, 너 기본적으로 조금 해 데이터 분석, 분포 란 무엇인가? 다른 카테고리? 심지어 시간 분포를보고 따라서 일반적으로 데이터를 살펴 보겠습니다

그냥 볼만한 것이있다 네가 제거하고 싶지 않은 것은 흥미롭지 않다 또는 강조하지 않으려는 일부 스파 스 영역 예측할 수 있다고 생각하는 것을 찾고 있습니다 그리고 나서 여러분은 실제 피쳐 엔지니어링에 참여할 것입니다 그리고 우리를 위해서, 우리는 몇 가지 다른 알고리즘을 가지고 놀았습니다

내가 너에게 보여줄거야 우리가 사용하는 것을 끝내었다 Jennifer가 말했듯이 링크 예측은, 얼마나 가능성이 있는지 보면서 미래의 관계 형성 그것이 구조적으로 얼마나 가까운지를 토대로합니다 우리가 사용하는 알고리즘 중 하나 우선적 인 부착이라고, 이웃 수를 배가시키는 노드들의 쌍들 사이에서, 그 특혜 첨부 일반적인 개념이다 네트워크 과학 당신이 사람들 또는 연결이 많은 항목 앞으로 더 많은 연결을 얻을 가능성이 높습니다

그게 아이디어 야 부유 한 사람의 또는 대중적인 것은 대중적이, 기본적으로 측정 값입니다 전체 면적의 표면적 이 두 노드 중 그리고 그들은 서로에게 어떻게 뛰어들 가능성이 있습니까? 넓은 표면적을 생각하면, 서로 마주 치고있어 이 그래픽에서 볼 수 있습니다 A, B, C 노드라면, 그들은 정상에있어

그들은 현재 서로에게 어떤 연결 고리도 없다 A와 B, 우리가 배수이면 그들이 가진 관계의 그들은 곱셈보다 작다 A와 C의 그래서 우리는 A와 C가 앞으로 연결 고리를 형성 할 가능성이 높다 A와 B는 아닙니다 또 다른 공통적 인 척도는 일반적인 이웃이며, 그리고 그것은 단지 숫자를 본다

삼각형에 관한 가능한 이웃들의 그래서 이것을 닫는 삼각형으로 생각할 수 있습니다 그래서, 여기 A, B, E, 우리는 왼쪽 상단에서 볼 수 있습니다, 현재 A와 E 사이에 연결이 없습니다 그러나 B는 A와 E 모두와 친구입니다 여기 아이디어는 우리가 공통의 친구가 있다면 또는 동료들, 우리는 더 많이 소개 될 것입니다 그것은 좀 더 자연스러운 일입니다

그래서, 그것들은 우리가 링크 예측을 위해 사용하는 것들입니다 커뮤니티 검색의 경우, 삼각형 수와 클러스터 계수를 사용합니다 나는 실제로 많은 사람들이이 연구를 읽는 것을 발견했다 그들이 많이 올랐다는 것을 알게 될 것입니다 기계 학습에서, 일반적으로, 나는 또한 말할 것이다

링크 예측 사이 그래서 삼각형, 우리가 여기서 U를 본다면, 이러한 측정은 U 노드, U를 통과하는 삼각형의 수를 계산합니다 아주 간단합니다 클러스터링 계수는 해당 측정 값을 사용합니다 확률이 무엇인지 살펴 봅니다

너의 이웃들 연결 되나요? 그래서, 일반적으로 링크 예측을위한 것, 매우 예측할 수있다 그리고 그것은 많은 시간 동안 사용되었습니다 지역 사회가 밀도가 높고 연결될 가능성이 높습니다 또한 Louvain Modularity 알고리즘을 사용합니다

및 라벨 전파, 이는 또 다른 커뮤니티 검출 알고리즘인데, 그러나 Louvain은 상호 작용을 봅니다 지역 사회와 계층 구조의 좋은 알고리즘입니다 전화를 걸고 전화를 걸 수 있다는 점에서 정의가 얼마나 타이트하거나 느슨한 지 커뮤니티의 그래서 너에게 조금주는거야 그것으로 놀아 라 레이블 전달 또한 다른 것입니다

공통 커뮤니티 감지 라벨을 채택하는 곳 우리 동네의 그래서, 우리도 그걸 사용합니다 좋아, 이제 찾고있어 이걸 넣을 준비를 할 때 우리의 기계 학습 파이프 라인으로 우리는 훈련 된 테스트 분할을 실제로 실행할 것입니다 몇 가지 샘플링을 알아 내고, 우리가이 일을 시작할 때 우리가 가로 질렀 던 몇 가지 이슈들, 그리고 우리가 어떻게 그런 것들과 싸웠는지 처음에는 테스트 기차가 나뉘 었습니다

왜 데이터를 분할하고 싶습니까? 당신이 아마 상상할 것 인 것에 따라 잘 먼저 떨어져서, 모든 데이터를 가져 가면 모델을 기반으로 훈련 시키십시오 그런 다음 모든 데이터를 테스트 할 수 있습니다 당신은 1 대 1의 정확성을 얻을 것입니다 그 말은 그들이 언제나 정확할 거라는 뜻이야 또는 아니오 인 경우 코드 문제가있을 수 있습니다

어딘가에 코드 버그 그래서, 당신은 실제로 알아 내기를 원할 것입니다 알았어,이 데이터 중 일부 가져 가라 그걸 바탕으로 내 모델을 훈련시키고, 다른 데이터를 가져 가라 "이게 내가 시험 할거야

그 훈련 된 모델 그것이 얼마나 정확한지 보아라, 그것이 얼마나 가까이에 있는지 " 그래서 Scikit-learn과 같은 것을 사용할 수 있습니다 그들은 다음 슬라이드에 있습니다 강조 표시된 행을 볼 수 있습니다 따라서 Scikit-learn은 무작위로 분리됩니다

그건 네가 결국 어떻게 나눌 지 많은 시간이야 데이터 분류 및 분할 그냥 일종의 무작위 분할을 사용하고 있습니다 그래서, 우리 테이블에 그 일이 끝난 것을 당신은 알 것입니다 우리 컬럼, 하지만 우리가 그래프에서 그 일을하면 어떻게 될까요? 우리가 실제로 끝났다는 것입니다 아주, 아주 틀린 정확한 모델

그래서, 우리는 뭔가를 얻는 것을 끝내었다 우리는 데이터 유출이라고 불렀습니다 거기에 의견이 있었나요, 에이미? 오, 그냥 말할거야 우리는 첫 라운드가 너무 흥분했다 (웃음) 정확도가 90 %를 넘으면 어떤 조정도없이, 이것은 아마도 진행될 것입니다

그것은 약 30 초 동안 좋게 느껴진다 당신이 그것을 깨달을 때까지 거짓 긍정 그것은 정말로 그렇게 좋을 수는 없습니다 그래서 기본적으로 그래프에서는 어떤 일이 발생합니까? 당신이 아마 상상할 수 있듯이, 모든 것이 합리적으로 연결되어 있습니다

그래서, 당신이 시작할 때, 임의 분할을 할 때, 이 피를 좀 흘리게 될거야 특정 노드가있을거야 세그먼트 화 된 관계 열차 모델에 같은 네트워크의 다른 사람들 그것은 테스트 모델에 푸시 될 수 있습니다 그러므로 관계에서 이러한 노드를 따라야합니다 서로간에, 그리고 당신은이 두 데이터 세트를 통해이 피를 흘리게됩니다

그런 다음 결과 예측이 끝납니다 너는 이미 훈련을 받았다 그래서 그게 문제입니다 그래서, 당신이 이것과 싸울 수있는 한 가지 방법은, 우리가 뭘했는지 실제로 시간 기반 분할을 수행하는 것입니다 그래서 우리는 모든 데이터를 2006 년 이전에 작성된 기사에서, 2006 년 이전에 작성된 공동 저자 관계

우리는 우리 기차 모델에 넣었고, 2006 년 이후의 모든 것 공동 저자의 경우, 우리는 그것을 테스트에 사용했습니다 그래서 이것은 단지 하나의 좋은 길일뿐입니다 꽤 잘 작동하는 것으로 보이는 그래프에서, 시간 기반 분할을 할 수 있다면, 계속해서 그렇게해라 그래서 우리는 하위 그래프와의 관계 긍정적 인 예로서, 부정적인 예를 계산한다 이들 서브 – 그래프들에 기초하여, 그래서 당신은 다이어그램을 볼 수 있습니다

그래서, 그것은 꽤 잘 작동했습니다, 그러나 우리가 만났던 다른 약간의 이슈가 있었다 데이터 세트와 공통점이있는 한 가지 당신은 어떤 계급 불균형을 얻을 것입니까? 그래서, 우리의 특별한 경우에, 그것은 많은 의미가 있습니다 우리는 더 많은 저자가있는이 데이터 세트를 가지고 있습니다 함께 일한 사람보다 물론 당연한 것입니다 대부분의 그래프가 이미 연결되어있는 경우, 그다음에 많은 것을 예측하는 데 정말로 중요한 점은 무엇입니까? 너 정말 많이 먹지 않을거야

그 중 가치있는 것, 너무 많은 예측을 할 수 있어야한다 전에 (오디오가 끊어짐) 그래서 우리가 가진 것은이 거대한 계급 불균형이었습니다 따라서 다음 슬라이드에서 볼 수 있듯이, 너는 무언가로 끝날 수있다 매우 높은 정확도와 같습니다 그래서,이 그림은 당신이 푸른 물고기를 많이 가지고 있음을 보여줍니다, 푸른 물고기가 있는지 여부를 예측하고 또는 붉은 물고기, 10 번 중 9 번, 파란색 응답은 정확 할거야; 그러나, 당신은 10 분의 1에 그것을 놓칠거야

또는 당신이 가질 가능성이 50 분의 1 너는 붉은 물고기를 얻는다 파란색으로 말할거야 따라서 한 쌍의 노드가 연결되지 않는다는 것을 예측할 수 있습니다 다시 한번,이 계급 불균형, 왜냐하면 다시, 대부분의 시간, 정확 할거야 하지만 당신은 그걸 예측하려하지 않습니다

너는 물건들을 예언하고 싶어 그게 일반적이지 않을 수도 있습니다 그래서, 당신이 그것과 싸울 수있는 두 가지 방법이 있습니다 하나는 데이터를 다운 샘플링하여, 다른 하나는 데이터를 업 샘플링합니다 따라서 다운 샘플링은 기본적으로 제거됩니다

더 큰 데이터 세트 해당 데이터 집합을 잘라냅니다 작은 부분 집합과 일치 할 때까지 물론, 단점은 여기에 있습니다 잠재적으로 가치있는 정보를 제외하고 있습니까? 그것은 실제로 당신이 더 잘 예측하도록 도울 수 있습니다 다른 하나는 샘플링 업, 기본적으로 더 작은 데이터 세트를 가져옵니다 그리고 그것이 더 잘 어울리는 곳에 그것을 곱하십시오 더 큰 부분 집합

물론, 단점은 여기에 있습니다 더 작은 데이터 세트를 복제하고 있습니까? 거기에 중복 된 결과로 끝납니다 당신이 훈련하고 테스트하고 있다는 것을 그래서, 우리는 이것을 위해 샘플링을 끝내 었다고 생각합니다 그게 더 일반적인 방법으로 보인다

그러나 이들 중 하나 완벽하게 유효합니다 그게 우리가 한 일이야 그 계급 불균형을 좀 더 평등하게 만들기 우리의 데이터 세트 크기 그래, 나는 듣기에 호기심이 많을거야 오늘 전화를받는 사람을 형성하십시오

또는 심지어 후에, 만약 누군가가 하이브리드 접근법을 사용한다면 그래서, 그것은 제가 연구를하지 않은 것입니다 하지만 이걸 반으로 나눌 수 있는지 궁금해 및 다운 샘플, 글쎄, 하지만 너는 몇 가지 샘플을 다운받을 수있다 일부 샘플을 올리면 그런 다음 결과를 혼합하십시오

그래, 확실히 흥미있는 방법들 그걸 처리해야합니다 기계 학습을 준비한 후에, 우리가해야 할 다음 일 물론, 우리 모델을 훈련시키고, 우린 확실히 끝났어 반복하기 돌아가서 우리의 기능을 수정하는 중 더 예언 적이었던 것이 무엇인지 알아 내려고 노력했습니다 그러나 우리는 우리 모델을 선택해야한다

우리는 Spark에서 임의의 숲을 사용했습니다 다음으로 다른 요소를 결합했습니다 그래서 제가 말씀 드렸듯이, 우리는 스파크에서 임의의 숲을 사용했습니다 당신이 그것에 익숙하지 않은 경우에, 이건 그냥 좋은 시각적인데 무작위적인 숲이 어떻게 생겼는지

그래서, 기본적으로 많은 다른 의사 결정 트리가 있습니다 의사 결정 트리, 기본적으로 특정 규칙을 기반으로합니다 그것이 나무 아래로 걷는 방법을 평가하고, 결정을 내린다 우리는 바이너리 분류자를 사용하고있었습니다 그래서 결정에는 그것이 링크가 있습니까? 링크가 없습니까? A, B 아주 간단합니다

너는 그것을 단지 분류한다 너는 각 나무, 다른 일련의 규칙과 목표를 기반으로 기본적으로 분류를 수행합니다 그것의 끝에, 당신은 투표합니다 가장 높은 표를 얻은 사람이 승리합니다 이 시각적으로 분류는 B가됩니다

그래서, 아주 간단한 모델 시작하는 것은 정말 좋은 방법입니다 많은 것을하지 않고, 당신이 많은 경험이 없다면, 이렇게 간단한 방법 그것으로 뛰어들 우리의 특정 모델의 경우, 이것은 단지 하나의 의사 결정 트리입니다 그래서 당신은 그 중 일부가 어떻게 보이는지 볼 수 있습니다

예를 들어, 특정 모델로 시작하여, 우리는 첫 걸음으로 시작했다 우리는 공통의 저자를보고있었습니다 그래서, 그것들은 공통점이 얼마나 많은 작가입니까? 일정 숫자 이상입니까? 특정 숫자 이하입니까? 우리가 취해야 할 단계는 무엇입니까? 사실입니까? 거짓인가? 이 경우,이 단계 1에서 이 예에서는 1 점 5 점보다 스코어링의 공통 저자, 그래서 우리는 2 단계로 갔다 우리는 2 단계에서 여전히 거짓이었다

3 단계로갑니다 알 수없는 ID 6을 볼 수 있습니다 우리는 이제 우선적 인 애착을 찾고 있습니다 그곳에서 예언을하고, 우리는이 논리를 계속 걷고 있습니다 우리가 잎 노드에 도착할 때까지, 우리가 우리의 최종 위치에 올 때까지

이 특정 예에서, 예측은 사실이었다 그래서 우리는 링크를 예측했습니다 그래서 걷는 아주 간단한 방법입니다 시작하기 당신의 분류를 만들면서, 특히 바이너리 분류를하고 있다면 이제 우리는 4 가지 다른 모델을 만들었습니다

우리는 서로를 겹쳐 쌓았습니다 우리는 공통적 인 저작 모델부터 시작했습니다 공통 저자 알고리즘을 사용합니다 그런 다음 Graphy Model이라는 모델을 만들었습니다 공통 저자를 사용하는 경우, 그러나 그것은 우선적 인 첨부, 당신이 이미 얼마나 인기가 있는지보고 있습니다

또는 이미 몇 명의 공동 저자가 있는지, 또한 이웃의 총 수를 더한 것입니다 우리는 그 다음 2 개의 다른, 삼각형과 클러스터 계수를 더했습니다 삼각형이라는 모델에서, 마지막으로 커뮤니티 모델을 추가했습니다 커뮤니티 탐지 알고리즘이 추가되었습니다 라벨 전파 및 베인 모듈 방식을 사용합니다

이제 프로세스를 테스트하고 놀았습니다 너는 볼 수있다 각 계층마다 더 많은 알고리즘을 추가합니다 및 더 많은 기능 우리가 심각하게 과학적으로 우리의 분석에서, 우리는 놀 수도 있습니다

일부 기능 추가 Graphy Model에서, 커뮤니티 모델, Triangles 모델은 아니지만, 우리는 여러 가지 방법으로 놀 수 있습니다 이 모델을 그룹화합니다 그것이 그랬던 것에 따라, 우리는 이것들을 쌓아 올렸고, 우리의 결과를 평가 한 결과, 그 결과를 평가하게됩니다 물론이 과정을 거칠 때 그리고 당신은 변화를 만들고 있습니다 너 항상보고있어

내가해야 할 일 정확도와 정밀도? 오탐 (false positive)이 너무 많습니까? 내 예측 속도는 무엇입니까? 우리는 Spark 도구를 사용하여 작업을 수행했습니다 그리고 이것은 모양이다 우리의 초기 모델에서, 그래서 첫 번째 모델 공통된 저자와 만 하단의 X 축에서, 거짓 긍정적 인 비율을 볼 수 있습니다 Y 축에서 진정한 양의 비율을 볼 수 있습니다 둘 다 분명히 중요합니다

그리고 당신이 많이 보는 길 이 ROC 곡선들 중에서, 우리가 총점을보고 있는거야? 여기에 무작위 점수라고 쓰여있는 바닥에 AUC 5 점 그것은 그 곡선 아래의 영역입니다 그래서 우리는 곡선 아래에서 그 영역을 최대화하고 싶습니다 이 공통 저자 모델을 사용하기 때문에, 우리는 오른쪽 상단에서 볼 수 있습니다 8 점 6 점을 가리 킵니다

그렇게 나쁘지는 않습니다 우리는 (오디오가 잘립니다) 오탐입니다 포인트 7 5 그래서, 아마 내가 가지고있어 그런 위대한, 어쩌면 몇 가지 오탐 (false positive)이 너무 많을 수도 있습니다

그러나 전반적으로, 그것은 너무 나빠 보이지 않습니다 하지만 여기서 실제로 일어나는 일 우리는 잘못된 반응이 일어나고있는가요? 여기이 위쪽 영역에, 이 왼쪽 영역에서 거짓 음수가 나타납니다 그래서, 방법에 따라 숫자가 클수록 더 좋으며, 일반적으로 AUC 곡선상에서, 또는 곡선 아래의 영역, 하지만 모델을 조정하고 싶을 수도 있습니다 특히 뭔가 그래서 뭔가있을 수 있습니다 당신이 정말로 신경 쓰지 않는 곳 가양성에 대해 당신이 거짓말에 대해하는만큼 너는 편이 좋을거야

뭔가를 예측하는 것은 존재하지 않는다 존재하는 것을 놓치기보다 따라서 모델을 조정해야 할 수도 있습니다 그것이 무엇이든 당신이 실제로 예측하려고 노력하고 있습니다 우리가 네 명 모두를했을 때, 이 비주얼에는 실제로 모델은 여기서 시각화됩니다

커뮤니티 모델 번호 4에 도착할 때까지, 오른쪽 아래에서 볼 수 있습니다 우리는 우리의 정확성을 얻었다 우리의 리콜과 우리의 정밀도는 꽤 높습니다 우리는 또한 면적을 최대화했습니다 커브 아래에서 상당히 크게

그래서, 당신이 이것을 왼쪽으로 볼 때 아래쪽의 분홍색 곡선쪽으로 당신이 이것에 접근하려고 노력하고있는 곳입니다 이제 우리가 결과를 평가할 때, 우리도 봐야 해 다른 기능의 영향으로 그래서 일어날 수있는 일 중 하나 귀하의 데이터를 넘나들며 또는 귀하의 모델을 귀하의 데이터, 그 결과로 매우 정확한 예측입니다 당신이 훈련 한 데이터에 대해서, 그리고 정말로 끔찍한 예측들, 새로운 데이터에 대한 예측이 그리 좋지 않습니다 그래서 우리가 보통하는 일 우리의 기능을 조정하고있다

너무 많은 특징을 가지지 않기 위해, 그래서 기능의 수를 줄이고, 가장 영향력있는 사람들을 뽑는다 이것은 사용하고있는 플롯입니다 스파크 무작위 숲 평균, 영향력을보고 다양한 기능들 특정 모델에서 그래서, 우리는 여기 왼쪽에서 볼 수 있습니다 공동 저자, Louvain, 레이블 전달, 최소 삼각형은 모두 상당히 영향력이있다

모델 자체 그래서, 당신이 할 수있는 일 중 하나 이러한 기능 중 일부를 제거하여 게임을 즐기십시오 그리고 그것을 볼 감소 예측 품질 내 모델들? 그렇지 않은 경우, 그게 아마도 좋은 징조 일거야 그걸 제거 할 수 있다고 모델을 전혀 손상시키지 않습니다 이 시각화는 실제로 내가 언급 한 바와 같이, Spark를 사용하지만 사용자도 있습니다

페이지 순위 알고리즘을 사용하는 기능을 실제로 평가하려면 어떤 기능이 더 큰 영향력을 미치는지 살펴보십시오 페이지 순위에 따라 다시 한번, 주위에서 놀고 싶은 무엇인가, 다른 기능을 다른 모델로 이동, 결합, 제거 및 반복 프로세스 제니퍼가 말한 내용입니다 그래서, 이것은 단지 모든것의 비주얼입니다 오늘 우리가 말한 것에 대해 워크 플로우, Spark 및 Neo4j를 사용한 예 다른 기술을 사용할 수도 있습니다

이런 흐름에서, 일단 제작에 실제로 뭔가를 넣기로 결정하면, 너는 뭔가를하고 있을지도 모른다 추천 엔진 생성과 같은 또는 분류 또는 링크 예측 들어오는 정보를 기반으로합니다 – 제니퍼 좋아 그래서, 우리는 단지 마무리 할거야

여기에 약간의 자원이있다 네가 실제로 할 수있는 것들 이 모든 분석을 직접하십시오 결과, 문서, 모든 것이 가능합니다 그래서 처음에, 우리는 언급하고 싶습니다 또는 그래프 알고리즘 책 에이미와 제 동료 마크가 합쳐졌습니다

사용할 수 있습니다 무료 다운로드를 위해 그 링크에서 그러니 가서 책을 다운로드하십시오 마지막 장에서는 기계 학습, 물론 우리는 거기에 다른 장들을 가지고 있습니다 알고리즘의 모든 영역을 커버하는 Spark에서 두 예제를 모두 사용하여, Neo4j에서도 마찬가지입니다

Neo4jcom 웹 사이트로 자유롭게 이동하십시오 따라서 일시적인 (오디오가 잘리는) 인스턴스를 스핀 아웃 할 수 있습니다 우리의 CN 상자를 사용하여 거기에는 최상위 (오디오 컷 아웃) 링크가 있습니다

(오디오 컷 아웃) 그들 중 일부는 (오디오 컷 아웃) 벌써 갈거야 (오디오 차단) 일부 테스트 데이터 세트 채우기 함께 놀아 라 (오디오 컷 아웃) 거기에 끈은 붙어 있지 않습니다 우리의 그래프 알고리즘, 우리는 가이드를 가지고있다 그것을위한 우리의 슬래시 개발자에, 우리가 지금 가지고있는 온라인 교육 두 가지 무료 온라인 교육

하나는 데이터 과학, 하나는 적용된 (오디오 컷 아웃) 알고리즘입니다 둘 다 사용할 수 있습니다 그래프 아카데미 페이지에서 그러니 그걸 확인해보세요 더 많은 것을 알고 싶다면 경험을 쌓으세요 우리의 알고리즘 라이브러리가 있습니다

오늘부터의 데이터와 코드 비트 링크에서 찾을 수 있습니다 O'Reilly 책의 예제입니다 우리가 오늘 이야기했던 것; 그리고 물론, 자유롭게 느끼십시오 에이미와 나에게 손을 내밀어 라 당신이 이것을보고 있다면 또는 당신 (오디오가 잘리는 경우) 이 웹 세미나 후

제발, 우리에게 손을 내밀어주세요 질문을 알려주세요 또는 피드백, 또는 당신이 한 일들 정말 흥미 롭습니다 우리는 너희들도 소식을 듣고 싶다 그래서, 우리는 이것을 마가렛에게 돌려 줄거야

우리가 당신에게서 몇 가지 질문이 있는지보십시오 – [Margaret] 좋아 고마워 훌륭한 발표와 많은 환상적인 정보 그 때문에 우리는 많은, 많은, 많은, 많은 질문을 가지고 있습니다

(웃음) 그리고 나는 채팅에서 모두에게 반응하려고 노력해 왔습니다 그래서 내가 너에게 간 적이 없다면, 나는 너의 질문을 얻을 것이다 우리는 많은 해답을 얻으 려 노력할 것입니다 최종 자료에서 이들에게 그것은 다음날에 나올 것입니다 자이 손에서 시작하겠습니다

이것은 처음부터 끝까지 온 것입니다 제이슨은 물었다 당신은 알고리즘을 작성하는 것에 대해 이야기 할 수 있습니까? 더 큰 데이터 세트에 대해서? 예를 들어 4 백만 행 및 500 개의 변수 흥미로운 질문입니다 알고리즘을 만드는 한, 이 예제에서 사용한 알고리즘 Neo4j 용으로 제작되었습니다

우리 실험실 팀 그래서, 우리는 그것들을 만들 수있었습니다 그들을 구현 Neo4j 그래프에 최적화되어 있습니다 그게 우리가 할 수있게 해줬 어 몇 가지 매우 큰 구현, 몇 가지 구현이 있습니다

특별히, 나는 우리가 무거운 그래프라고 부르고, 그러나 실제로 큰 그래프, 우리는 또한 약간의 링크를 가지고 있습니다, 나는 생각하려고 애 쓰고있어 개발자 페이지에서 그래서 여기에 자원 밑에, 개발자 그래프 알고리즘 하에서, 일부 문서 링크가 있습니다 그것도 몇 가지 구성에 대해 이야기하고, 특히 매우 큰 그래프의 경우 다른 알고리즘들 이 책에 나오는 스파크 우리에 의해 쓰여진 것이 아니라, 그러나 그들은 공동체에 의해 쓰여졌다 MLlib에서 또는 그래프 프레임, 그것들은 쓰여지고, 내가 말했듯이, 지역 사회에 의해 분산 된 방식으로 사용됩니다 그래서, 특정 알고리즘을 작성하기위한 팁까지, 나는 당신의 데이터를 아는 것에 달려 있다고 생각합니다

플랫폼을 아는 것 네가 일하고있는 곳 네가 Neo4j를 다루는 중이라면, Neo4j 내부에 큰 오디오 (오디오 컷 아웃) 정말 도움이되는 것들 좋은 양의 메모리를 가지고있다 좋은 양의 (오디오 컷 아웃) 그래서 우리의 알고리즘은 다시 최적화되었습니다 우리의 데이터베이스 구조 그리고 가능한 한 마른 소리 (오디오가 끊어짐) 그 알고리즘이 실행되도록 최대한 빨리 또는 매우 큰 데이터 세트 꽤 좋은 결과를 얻은 것 같습니다

그런 종류의 일로, 하지만 우리는 문서에 있습니다 최적화를위한 아이디어 아이디어를 얻는 방법 및 방법 그게 무슨 메모리가 걸릴까요 특정 알고리즘의 경우 설정할 수있는 구성뿐 아니라 더 줄이려고 노력합니다 – 알았어 고맙습니다 두 번째 질문은 Ernesto의 질문입니다

AI의 추세는 무엇입니까? DB 성능이 필요합니까? (웃음) 그건 큰 질문입니다 그래서 우리가 초기 경향에 대해 이야기했을 때, 우리가 초기에 보여 줬던 차트, 금액이었다 인공 지능 연구 논문 그것은 제목에 그래프를 포함 시켰습니다 그래서 트렌드 번호였습니다 우리가 얘기하고 있었던, 그리고 나서 일반적으로 인공 지능까지, 제니퍼가 기계 학습에 대해 설명했다고 생각합니다 AI 시스템을 훈련시키는 방법, 많은 데이터를 얻는 경향이있다

에 계산합니다 최적화를 위해 할 수있는 모든 것 니가하고있는 일, 그래프 기능 폴링 미리, 그런 다음 기계 학습을 계산하면, 기능에 대해서는 일단 테이블 구조가 아니라면 대부분의 인공 지능 시스템, 우리가 결과와 해결책에 관해 이야기하고 있다면, 시리와 같은 또는 그 성격의 무엇인가 우리가 볼 수있는 것은 모델을 개별적으로 개발하는 것입니다 그런 다음 모델을 실행합니다 보다 실시간 성능을 위해 지식 그래프 같은 것에 대항하여 의사 결정을 지원하는 것을 돕기 위해, 그러나 나는 당신의 질문에 대답하기를 바랍니다

나는 모른다 제니퍼, 다른 생각이 있습니까? – 네가 묻는다면 나는 생각한다 우리가 공연을 위해 설정 한 바, 분명히 모든 사람들은 항상 더 빠른 것을 원할 것입니다 (웃음) 따라서 우리의 목표는 최적화를 시도하는 것입니다 성능 향상 기존 기계 학습 프로세스의 그래서, 이미 실행 중이거나 다루고있는 것들, 성능 향상을 위해 쿼리를 더 빨리 반환하도록하고, 그 결과는 더 빨리 반환됩니다

그런 다음 추가를 추가하십시오 그 위에 레이어 우리의 그래프 기능을 가지고, 연결 데이터에 특정한 것 우리는 거기서 몇 가지 자료를 가지고있다 우리는 당신을 보여줍니다 우리는 교체를 찾고 있지 않다

귀하의 기존 기계 학습 모델 우리는 실제로 Spark, Spark는 사이트를 지원할 것입니다 다음 릴리스에서 곧 릴리스 될 예정입니다 Spark에서이 그래프 레이어를 실제로 만들 수 있습니다 우리의 알고리즘 중 몇 가지를 보고,이게 (오디오가 잘려서) 이게 연결 됐나요? 이 인용문이 Graphy입니까? 그리고, 말하자면, 이것은 (오디오가 잘립니다) 이것을 Neo4j로 밀어 넣자

최적화 된 알고리즘을 실제로 사용하는 방법 Neo4j에서 그것을 기계 학습으로 밀어 넣으십시오 그래서, 당신은 이미 다루고있는 것을 탐색 할 수 있습니다 그런 다음 실제로 연결되어있는 것들 그것을 위해 최적화 된 시스템이 필요합니다 그래서, 그것은 정말로 뭔가가 아닙니다 스파크 또는 다른 시스템 처리 할 수 ​​있도록 최적화되어 있습니다

즉, 특정 데이터를 푸시 할 부분입니다 Neo4j를 통해 이러한 기능을 계산할 수 있습니다 – 좋은 지적이야, 제니퍼 나는 들었던 것들 중 하나를 생각한다 여러 엔지니어가 이야기합니다

Spark에서 그래프를 탐색하고 있습니다 그것이 당신의 데이터가 이미있는 곳이라면, Neo4j에서 제품을 제작하십시오 일단 그래프를 유지하기로 결정하면 당신이 지금 알고 있고 사랑하고,하고 싶은 일을하고 싶습니다 그 다음 당신은 그것을 Neo4j에 가져온다 그게 최적화되어 있기 때문입니다

– [Margaret] 좋아 좋은 소리 어디 보자 다음 질문은 Arvin입니다 토론에 대한 후속편에 관심이 있습니다

지식 그래프 및 그래프 연계 학습에도 적용됩니다 그래서 우리는 그것을 목록에 추가 할 것입니다 너에 대한 의견이 없으면 지금 이순간 아니, 그게 좋은 제안 인 것 같아 제니퍼

– 그래, 말하려고 했어 그 동안 우리가 뭔가를 얻을 때까지 그걸 끝내고, 우리는 믿을만한 사례 연구가 있습니다 백서 및 (오디오 컷 아웃) 이미 우리 웹 사이트에 나와 있습니다 지식 그래프 용 따라서 사용 사례가 상당히 많습니다

지식 그래프 용 Neo4j를 사용하는 고객의 아마도 콘텐츠가있을 것입니다 이미 그런 종류의 일을 위해 거기 밖으로 당신을 시작하게하기 위해서, 그리고 나서, 물론, 우리는 추가 자료를 기꺼이 제공합니다 토론 (오디오 컷 아웃) 질문을 거기에서 좋아, 환상적이야 다음 질문은 목록에 있습니다

엔티티 정렬에 대한 작업을 수행 했습니까? 퍼가기 및 유사성을 기반으로합니까? – [Amy] 그래서 우리는 현재 일하고 있습니다 일반적으로 그래프 삽입에서, 너 아마 보았을거야 우리는 비슷한 점이있다 그래프 알고리즘을 사용할 수 있습니다 엔티티 해상도까지 또는 disambiguation, 그게 뭔가입니다 우리는 많은 사용자들에게 물어 보았습니다

그리고 그것은 유스 케이스 다 이 기계 학습의 일부 우리가 적극적으로 노력하고있는 하지만 나는 믿지 않아 제니퍼, 너는 프로젝트에 대해 안다 내가 알지 못하는 것, 하지만 나는 우리가 가지고 있다고 믿지 않아 이를 위해 패키지 된 모든 종류의 솔루션, 그러나 그것은 우리가 조사하고있는 것입니다

그것은 활동적인 우선 순위 목록에서 더 높을수록 나는 말해야한다 – [Jennifer] 블로그 게시물이있을 수 있습니다 또는 조금 밖에 내용이 없습니다 우리가 결합한 곳 유사성과 삽입의 일부, 그러나 나는 그것에 관해 확실하지 않다, 그래서 나는 파기를해야 할 것이다 현재 자원이 있는지 여부를 확인하십시오

– 알았어 어쩌면 우리는 후속 조치를 취할 수 있습니다 Q와 A의 일부로 내가 말하는 블로그 게시물을 알고 있다고 생각합니다 그래서 우리는 그것에 대한 약간의 연구를 할 수 있습니다

그리고 아마도 그것은 당신에게보기를위한 참고 자료를 줄 것입니다 그리고 나서, 내가 말했듯이, 더 빨리 올 것이다 – [마가렛] 완벽 해 나는 그것을 목록에 추가 할 것이다 다음 질문은 어떻게 진실을 결정할 것인가입니다

그래프에서 관찰되지 않은 패턴을 예측하기 위해서? 오, 진실의 진실 그것은 어려운 질문입니다 그래서, 우리가 시험을했을 때, 제니퍼가 걸었다 우리는 타임베이스 분할을했습니다 그리고 그것은 우리에게 줬다

우리는 거기에있는 링크를 압니다 그리고 나서, 물론, 우리는 앞으로 그들을 예측하려고 노력합니다 지상 진실이 많이 올 때의 것들 중 하나, 특히 기계 학습에서, 사물 중 하나, 저는 우리가이 장에서 이것을 토론했다고 생각합니다 제 8 장에서이 문제를 논의한 것 같습니다 그렇지 않은 경우이 책의 자료에 포함되어 있습니다

우리는 여러 참조 사이트를 제공합니다 지상 진실 데이터 세트 다른 상황에 사용할 수 있습니다 그래서 내가 말할 수있는 하나의주의 당신이 당신의 영역에 가까이 갈 수있는만큼, 소매업을위한 토대 진리 너무 달라질거야 지상 진실보다 서비스 산업 생물 의학과 다를거야

또는 그런 것 따라서 가능한 한 귀하의 도메인에 가깝게, 그리고 다른 것은, 지상 진실을 찾기 위해 데이터 집합을 선택하는 경우, 분포는 그래프에서 매우 중요합니다 그래서, 관계의 분포 그래프는 매우 울퉁불퉁 한 경향이 있습니다 이러한 농도를 얻고 후프 및 스포크 구조를 얻습니다

따라서 데이터 세트를 찾고 있다면 귀하의 테스트에서 귀하의 궁극적 인 근거 진실이기를, 유사한 분포를 갖는 것을 얻는다 가지고있는 노드와 관계에 정말 중요해 질거야 좋아, 환상적이야 다음 질문 내가 스파크에 국한되어 있니? Python이나 Alicsx와 같은 도구를 사용할 수 있습니까? 데이터 변환의 특정 유형을 prep로? – [Amy] 절대적으로

그리고 나는 제니퍼를 추측하고있다 아마 내가하는 것보다 그 일을 더 많이하는 경험이 있습니다 하지만 오늘 우리가 보여준 것은 그냥 템플릿이었다 우리가 한 일은, 우리가 스파크를 골랐어 많은 사용자가 Spark에 실제로 많은 데이터가 있습니다

그들은 스파크에서 이사하려고합니다 다른 분석으로 정보를 유지할 수 있습니다 제니퍼, 너는 경험이 있니? 다른 도구들 중 일부를 사용하고 있습니까? – [제니퍼] 반드시 구체적으로; 그러나, Neo4j는 다양성을 취합니다 다른 종류의 입력, 그래서 당신은 Python을 사용하여 직접 연결할 수 있습니다 피드 데이터를 스크립트 또는 프로그램에서 그게 응용이야

당신이 그것을 먹이로 사용할 수 있습니다 그래, 그래 다시 한번, 스파크는 단지 예일뿐입니다 하지만 사용하는 도구가 무엇이든, Neo4j에는 많은 통합 기능이 있습니다 그것은 정말로, 정말로 잘한다

앞뒤로 먹이를 먹을 때 서로 다른 종류의 시스템간에 따라서 데이터를 얻을 수있는 방법이 있습니다 안팎으로, 그리고 이미 데이터를 정리할 수있다 다른 도구에서 그런 다음 Neo4j로 밀어 넣습니다 더 나은 모든, 너는 그걸로 망칠 필요가 없어 그래프에 들어갈 때마다

– 제니퍼, 통합 정보, 우리 개발자 영역 아래에있다 웹 사이트의? 그래, 우리는 거기에 잔뜩 가지고있다 GitHub은 확인하기에 좋은 또 다른 곳입니다 통합 프로젝트 그들 중 일부는 지역 사회 주도자입니다 그 (것)들은 찾아내는 조금 속임수 일 것이다, 그러나 우리 공동체, 그들은 (오디오 컷 아웃) 스팟에 있을지도 모릅니다

그 물건의 일부를 볼 수 있습니다 – 그게 좋은 알림이에요 나는 그것을 사이트에 두지 않았다 하지만 우리는 커뮤니티 닷컴 Neo4j 닷컴, 우리 커뮤니티 웹 사이트 인 매우 활동적인 커뮤니티, 그래서 질문이 생기면 아니면 그냥 공동 작업하고 싶어, 그게 좋은 장소 야 네가하고있는 일에 대해 이야기 해

좋아, 환상적이야 다음 질문 우리는이 마지막 시간을 가질 시간이 있습니다 속성을 할당 할 수 있습니까? 에지 커넥터에요? 이러한 특성을보다 복잡하게 만들 수 있습니까? 가중치 또는 방향보다? – [Amy] 네, 네오 레이블이있는 속성 그래프 속성을 추가 할 수 있습니다 관계에

따라서 속성은 단순한 가중치가 될 수 없으며, 그것은 날짜 일 수 있습니다 사실,이 예제에서, 우리는 날짜를 속성으로 사용했습니다 공동 저자 관계에 너 그래, 뭐든지 될 수있어 너는 또한 일을 할 수있어 유사성을 닮았다 서로 다른 속성을 기반으로하는 엔티티 사이에서도 마찬가지입니다

– 네 실제로, 또 다른 (오디오는 잘립니다) 우리의 (오디오가 잘리는) 데이터 세트입니다 상호 작용 그래프를 보면됩니다 얼마나 많은 상호 작용이 발생하는지 계산합니다

캐릭터들 사이에서 우리는 이것을 가중치 속성이라고 부릅니다 하지만 기본적으로 상호 작용의 수입니다 그 두 문자 사이 그러면 속성으로 설정됩니다 그 관계에 그래, 그래

Neo4j는 이러한 속성을 가질만큼 유연하며, 노드 또는 관계에 정의 된 속성, 그러나 그것은 가장 의미심장하다 귀하의 모델에 – [마가렛] 좋아 고마워 에이미와 제니퍼

프리젠 테이션에 정말 감사드립니다 질문에 대한 당신의 위대한 답변 우리가 지금까지 겪어 온 것 우리는 분명히 많은 질문을 더 많이 가지고 있습니다 나는 그 질문들을 큐 레이트 할 것이다 에이미와 제니퍼에게 넘겨줘

몇 가지 중대한 답변 나는 완전한 패키지로 조립할 것이다 관객에게 감사드립니다 오늘 우리와 합류했습니다 이 녹음을 보내 드리겠습니다 그리고 모든 슬라이드, 이메일, 당신이 등록한 이메일에 그리고 당신은 그걸 알게 될거야

나는 다음 몇 일 안에 희망 할 것이다 우리 한테 큐레이팅 시간이 좀 걸릴거야 이 모든 정보 다시 한 번 감사드립니다 그리고 하루를 즐겁게 보내십시오

Linear Regression – Introduction to Machine Learning using Python and Scikit Learn Chapter 6 1

안녕하세요 모두 컴퓨터 소개 동영상 시리즈에 오신 것을 환영합니다

scikit을 사용하여 학습 – 이것이 6 장, 특히이 장을 배우십시오 우리는 첫 번째 기계 학습 알고리즘에 대해 이야기 할 것입니다 이 장에서 선형 회귀는 선형이 무엇인지를 이해할뿐만 아니라 회귀뿐만 아니라 기계 학습을 어떻게 호출 할 수 있는지도 이해합니다 scikit-learn에서 제공하는 기능 선형 회귀뿐만 아니라 다른 알고리즘을 사용해도 괜찮습니다 앞서서 선형 회귀는 감독 된 학습 방법이다

학습 사전 데이터에 기초하여 회귀 값을 예측하는 단계와, 선형 관계이므로 우리가 이해할 수있는이 정의에 대해 걱정하지 마십시오 이제 우리는 어떤 기계 학습 알고리즘으로 작업하기 위해 데이터가 필요합니다 밖에서 사용할 수있는 많은 데이터가 있지만이 경우에는 나는 단지 5 ~ 6 점으로 우리 자신의 데이터를 생성하기로 결정했다 선형 관계가 실제로 어떻게 나타나는지 실제로 이해하고 볼 수 있습니다 이러한 데이터 포인트와 내 기계 학습 모델이 이러한 데이터를 어떻게 처리하는지 그래서 나는이 데이터 세트를 학습을 위해 적어도 초기 학습은 데이터 세트가이 데이터 세트처럼 보이는 방식입니다

농산물에 대한 가격과 다른 위치에서의 가격 이 데이터 세트는 농부가 생산하는 농산물에 관한 것입니다 그것이 판매되는 곳과 그것이있는 곳의 거리 예를 들어 지역 농원 시장 인 농가에서 판매되는 4 대 농부들의 마일리지는 마을에서 10 달러에 살 수있는 것과 같은 것을 놓습니다 농장에서 12 마일 떨어진 곳에 있습니다 당신은 똑같은 물건을 28 달러에 살 수 있습니다 당신이 50을 위해 같은 것을 살 수있는 25 마일 인 소유주 마을 4 달러 농장에서 50 마일 떨어진 도시에서 살 수 있습니다

84 달러를위한 것 및 가동 불능 시간에서 60 마일 인 가동 불능 시간 너는 90 달러에 같은 물건을 살 수있다 우리는이 데이터를 가지고있다 우리의 x 축과 y 축 값을 만들어 보자 그 X는 마일 단위로 거리가 될 것이고 Y는 가격이 될 것입니다 내가 왜 numpy를 가져오고 있는지 묻고 있을지도 모릅니다

numpy는 어떤 것의 중추입니다 만약 당신이 있다면 기계 학습과 데이터 과학 파이썬 프로그래밍 언어 번호가 마음에 들지 않습니다 앞으로 나아가보고 싶을 것입니다 내 비디오 chapter 41 위의 숫자는 ok입니다

이제는 numpy 배열로 처리하고 있습니다 x 거리 및 Y 가격 확인 및 여기에 어떻게 지금처럼 보이는 나는 우리가 만든 배열은 수평 배열이지만, 내가 말한 것을 기억한다 이전 장에서는 기계 학습에서 특히 scikit-learn 또는 기계 학습을하는 데 중요합니다 알고리즘은 데이터의 수평 세트가 아닌 1 차원 데이터를 나타냅니다 열 벡터 인 세로 형 데이터 집합이므로이 값을 변경해야합니다

행 벡터를 열 벡터로 변환 이제 내 번호를 기억하고있을 것입니다 너는 우리가 재 형성 함수를 호출 할 수 있도록 내가 너에게 5와 1을 열이 데이터를 얻지 만 알려주지 한 가지는 원래 데이터를 변경하거나 변경 데이터를 작성한 것입니다 수평 거리를 다시 인쇄하면 다시 볼 수 있습니다 그래도 가로 데이터는 괜찮아요

그래서 우리는 numpy의 실제 치수를 바꿉니다 배열을 사용하여 파일 1로 직접 모양을 변경할 수 있으며이 경우 데이터는 열 벡터로 변경 이것은 numpy 배열 0의 속임수 중 하나입니다 새로운 번호를 만들지 않고 치수가 여기에있는 y와 똑같은 것에 존재한다 이제는 가격입니다이 x와 y를 사용하여 어떻게 보이는지 볼 수 있습니다

matplotlib 다시 수학 장에 익숙하지 않은 경우 42 장으로 돌아갑니다 도약하지 마라 나는 여기에 그렇게하지 않을 것이다 나는 이것이 단지 당신이 볼 수있는 방법 일 뿐이다

농부 자리에서 마일 떨어진 거리이며 이것은 지금 위치에서 가격입니다 먼저 scikit-learn에서 선형 회귀 메커니즘을 사용합니다 그런 다음 선형 회귀를 사용하는 방법을 디코드합니다 우리는 선형 모델로부터 선형 회귀 (linear regression)를 가져와야합니다 선형 회귀 알고리즘이 어떻게 수행되는지 이해하려면 매트릭스에서 미니 제곱 오류라는 것을 가져 오십시오 걱정하지 마십시오

나는이 두 가지에 대해 너희에게 각각과 모든 것을 말할 것이다 이제는 매우 중요한 한 가지 통합 된 기계 학습 인터페이스 scikit-scikit-learn에 관해 가장 좋은 것을 배웁니다 거의 모든 기계 학습을위한 통일 ​​된 인터페이스를 제공한다는 것입니다 알고리즘은 선형 회귀뿐만 아니라 내 기계로 당신을 배우기도합니다 3 줄의 코드를 호출하여 코드 세 줄을 작성해야합니다

통가의 인스턴스는 당신이 해제 된 함수를 반환합니다 이것은 함수입니다 어디에서 훈련이 일어 났는지 예측하고 싶을 때 예측을 부릅니다 선형 회귀를위한 함수입니다 같은 것을 부릅니다 KN을 위해 n 나중에 비디오에서 볼 수있는 것과 동일한 것을 호출 할 것입니다

우리 모두는 scikit-learn으로 할 것이므로 선형을 어떻게 사용할 수 있는지 보도록하겠습니다 회귀 나는 물론 선형 회귀의 인스턴스를 만듭니다 다양한 매개 변수를 제공 할 수 있지만이 특별한 경우에는 기본값은 선형 회귀의 인스턴스를 만들 정도로 좋아요 선형 회귀 함수를 호출하는 방법은 다음과 같습니다 교육이 실제로 완료되었습니다

이제 기계 학습 모델을 사용하여 가치를 예측하기 위해 똑같은 일을해야합니다 45 마일은 이제 내 목록에 45가 없다는 것을 기억한다 나는 52 살이지만 그렇지 않다 45 그러나 나는 같은 가격이면 첫 번째 가격은 무엇인지 알고 싶다 이제 우리는 이것을 41 마일에서 다시 팔고 있습니다

열 벡터가 동일한 통합 함수를 전달하고 그것이 말하는 예측을 봅니다 그 $ 73 $ 026는 지금 45 마일에 가격 일 것이다 원래 지점에 대해 플로팅하여 예측을 보도록하겠습니다 앞서와 음모 당신이 볼 수있는 45 마일에서 나는 그것을 위해 73 달러와 이 특정 그래프의 모양이 괜찮아 보입니다 좋아,이게 옳은 가격 인 것 같아

그 특정 지점은 이제 여러 값을 예측할 수도 있습니다 값을 학습 값보다 훨씬 더 많이 사용하며 열 벡터를 만듭니다 그것에서 나가고 신용 함수에있는이 란 벡터를 통과하고 나는 얻을 것이다 10 번째 마일에서의 모든 것의 예측 제 80 회 24 번째 입술 122 회 100 회 입술 149 등등을 볼 수 있습니다 나는 훈련 데이터가 여전히 60 마일이나 무엇인지 보자 마지막 훈련 데이터는 현재 60 마일이지만 100 마일을 요구하고 있습니다

마치 단순한 선형 관계를 제공하는 것처럼 보입니다 선형 회귀 분석이 선형 회귀 분석을 통해 무엇을 찾는 지 이해합니다 가장 잘 맞는 선은 일반적으로 직선을 설정하는 훈련 데이터를위한 직선 특히 2 점 만 있으면 괜찮아요 지금 가장 적합한 것이 무엇입니까? 최상의 적합은 최소 평균 제곱 오차를 갖는 라인으로 정의된다 우리는 미니 평방 오차를 가져 왔고 이것이 우리가 가지고있는 이유입니다 우리는 성능이 무엇인지 확인하기 위해 평균 제곱 오차를 가져 왔습니다

우리의 선형 회귀 분석에 대해 더 자세히 설명하기 전에 지금 시간을 대입 할 것입니다 선형 회귀가 그러한 것을 표시하지 않는다는 것을 말해 줄 게요 하지만 당신은 훈련 데이터에서 배웁니다 즉, 제가 훈련을하면 10 분의 1 마일 가격이 12 달러라고 말하는 데이터와 10 마일에 가격을 예측하면 그렇지 않을 수도 있기 때문에 $ 12 일 수도 있고 그렇지 않을 수도 있습니다 훈련 자료를 기억하지 못한다

훈련 자료는 10 분의 1이다 최악의 날짜 나는이 대답을 계속 지었다 원래의 교육 포인트를 제공하든 새로운 포인트를 사용하든 모델이 예측치에 직면하여 훈련 데이터 값을 기억하지 못합니다 왜 네가 사각형이 필요하기 때문에 내가 이것을 말하고 있는지 이해하는 것이 매우 중요하다 오류가 무엇인지 알 때만 오류를 계산할 수 있습니다

우리는 우리가 알고있는 평균 제곱 오차에 대한 예측과 비교할 수 있습니다 이미 훈련 데이터를 가지고 있으며 우리는 예측 데이터를 가지고 있거나 예측할 수 있습니다 교육용 수에서 얻은 데이터는 동일하게 처리하고 차이점을 비교합니다 이제이 둘 사이에서 원래의 데이터 요소를 예측해 봅시다 내 예측이 어떻게 생겼는지, 내가 원래대로 당신이 볼 수있는 데이터 포인트는 각각의 원래 데이터가이 두 포인트를 가리킨다는 것을 나타냅니다

상대적으로 가깝습니다 조금 멀었습니다 이것은 조금 더 의미가 있습니다 원래 값과 해당 값에 의해 예측 된 값 간의 오차 연령 차이 모델과 제곱의 제곱은 네거티브가 있으면 긍정적 인 가치 그래서 미니 평방 오류를 계산하자 미니 평방 오류 수 있습니다 원래 값과 예측 값을 전달하여 계산하면 26에서의 평균 제곱 오차는 지금이 26에 대한 최상의 평균 제곱 오차이다 선형 회귀를 사용하여 설정 한 특정 값이므로 선형 일 경우 자신 만의 회귀 분석을 통해 얻을 수있는 최상의 미니 스퀘어 오차 이제 26 일입니다

다음 비디오에서 나는이 특정 비디오에서 여기서 멈추게 될 것입니다 선형 회귀 분석의 수학과 그 원리에 대해 다룰 것입니다 그 비디오를 확인하는 것을 잊지 마십시오 이러한 데이터 세트는 내 github 페이지에서 이러한 것들을 업로드 할 것입니다 이 데이터는 일부 순열과 조합을 통해 어떻게 작동하는지 이해합니다

일단 그것이 어떻게 작동하는지 이해하면 우리 자신의 선형 세트를 쉽게 수행 할 수 있습니다 회귀는 실제로 심령술사에 의해 수행되고있는 것을 발견하게합니다 현장 괜찮아요 그래서이 비디오에 대한 모든 것이 제발 제발 다음 비디오에서 몇 가지 것을 시도해보십시오 선형 회귀 알고리즘 뒤에 수학 괜찮아 그리고 우리는 우리의 그때까지 다음 비디오에서 회귀가되는 자신의 구현 시청 해 주셔서 감사합니다

잠시 시간을내어 공유하고 구독하고 싶습니다 고마워요, 고마워

How to design a LabVIEW prediction application using machine learning

이 예에서는 게임 회사의 판매 예측 시스템을 설계하려고합니다 우리는 tensorflow를 사용하여이 판매 예측 시스템에 대한 깊은 학습 모델을 구축 할 수 있습니다

tensorflow로이 시스템을 구축하는 방법에 대한 자세한 내용은 Lyndacom을 방문하십시오 먼저 데이터 세트를 살펴보십시오 이것은 다양한 종류의 게임 판매 기록입니다 각 게임은 등급, 액션 테마, 역할극

및 가격과 같은 자체 특성을 가지고 있습니다 역사적 데이터는 게임 속성에 따라 총 수익을 추정 할 수 있음을 보여줍니다 이러한 이유로 기계 학습이나 심층 학습이 예측 시스템을 설계하는 데 적용될 수 있습니다

이 시스템은 새로운 게임의 총 수익을 속성을 기준으로 추정하는 데 도움이되므로 새로운 게임을 만들기 위해 올바른 결정을 내릴 수 있도록 지원합니다 이와 같이 예측 시스템을 설계하기 위해 복잡한 텐서 흐름 코드를 사용할 수 있습니다 그러나 ANNHUB는이 설계 프로세스를 단순화하고 프로그래밍 기술 없이도 동일한 예측 시스템을 작성할 수 있습니다 가장 중요한 점은, ANNHUB을 사용하면이 예측 시스템을 실제 생산을 위해 LabVIEW로 직접 내보낼 수 있습니다 그것이 어떻게 작동하는지 보도록합시다

ANNHUB에서 기계 학습을 사용하여 예측 시스템을 설계하는 것은 간단합니다 먼저 올바른 형식 데이터 세트를 ANNHUB에로드해야합니다 이 데이터 구조를 기반으로 ANNHUB는 신경 네트워크 구조가 어떻게되어야하는지에 대한 좋은 권고안을 제시합니다 이 기능은 기계 학습에 대한 지식이 부족한 사용자에게 유용하며 고급 사용자는 매개 변수를 조정하여 최상의 구조를 얻을 수 있습니다 ANNHUB는 또한 훈련 매개 변수 및 중지 기준을 권장합니다 교육 과정에서 조기 정지 기술은 자동 조화 문제를 처리하기 위해 자동으로 적용됩니다

ANNHUB에서는 사용자가 훈련 된 모델을 검증, 평가 및 테스트하여 유용한 제품인지 여부를 확인할 수있는 유용한 평가 도구를 제공하기 위해 평가 기법도 지원됩니다 이러한 평가 기술은 훈련 세트, 검증 세트 및 테스트 세트의 세 가지 데이터 세트에 적용 할 수 있습니다 또한 ANNHUB는 훈련 된 모델을 내보내도록 결정하기 전에 훈련 된 모델이 완전히 새로운 데이터 세트에 응답하는 방식을 경험할 수있는 테스트 인터페이스를 제공합니다 이 평가 인터페이스에서 모든 평가 기법을 사용할 수 있으므로 사용자는이 모델을 프로덕션 환경에서 사용할 수 있습니다 ANNHUB을 사용하면 교육 된 모델을 여러 환경으로 내보낼 수 있습니다

이 예제에서는이 훈련 된 모델을 LabVIEW로 익스포트 할 것입니다 트레이닝 된 모델을 LabVIEW 환경에로드하려면 ANNAPI가 필요합니다 ANNAPI를 무료로 얻고 LabVIEW에 설치하는 방법을 알아 보려면 ANSCENTER를 방문하십시오 ANNHUB 및 ANNAPI는 단일 사용자 용으로 무료이며 자세한 내용은 https : // wwwanscenter

com을 방문하십시오 ANNAPI는 Create, Predict, Evaluate 및 CleanUp과 3 가지 유틸리티 기능을 포함한 4 가지 주요 기능을 포함합니다 이 예제에서는 Create, Evaluate 및 CleanUp 함수를 사용합니다 Evaluate 함수에 대한 데이터 세트를 테스트 할 경로를 만들어야합니다 우리는 예측 된 산출물과 실제 산출물 (목표치)을 비교할 필요가있다

우리는 또한 Create 기능을위한 "License Content"를 제공해야합니다 "라이센스 내용"을 받으려면 도구 -> ANSCENTER 아래의 ANNAPI 유틸리티를 사용할 수 있습니다 먼저 라이센스 유형을 선택해야합니다 대상 배포 또는 응용 프로그램 배포의 두 가지 유형이 있습니다 그런 다음, 숙련 된 모델을 찾아보고 올바른 사용자 이름과 암호를 입력하여 "라이센스 내용"을 생성하면됩니다 대상 배포의 경우 생성 된 "라이센스 내용"이 대상 식별자에 바인딩되며 동일한 대상을 사용하는 경우이 "라이센스 내용"을 다른 응용 프로그램에 다시 사용할 수 있습니다

또한 훈련 된 모델을 Create 함수에 공급해야합니다 그냥 훈련 된 모델 파일의 내용을 복사하여 Create 함수의 Weight 매개 변수에 붙여 넣기 만하면됩니다 이제는 시험 할 시간입니다 애플리케이션을 실행하기 만하면 예상되는 총 수익과 그 속성을 기반으로 한 새 게임의 실제 총 수익을 보여주는 그래프에서 결과를 얻을 수 있습니다 그래프를 확대하면 예측 된 총 수익이 실제 총 수익과 매우 정확하게 일치 함을 알 수 있습니다

즉, 예측 시스템이 게임의 속성에 따라 올바른 총 수익을 예측할 수 있습니다

Yale Digital Conference: Using Machine Learning to Create Content Faster and Smarter

– 안녕하세요, 저는 Mike Minecki입니다 그리고 나는 너에게 어떻게 이야기 할거야

조직 및 Yale이있을 수있는 방법 기계 학습을 사용하여보다 빠르고 똑똑한 컨텐트를 만듭니다 이것은 내부 프리젠 테이션으로 시작되었지만, 그리고 그것은 조금 더 로키가되었지만 프란츠의 충고에 따라 마이클 (Michael) 어제 그의 발표에서 마이크 코너리 AI는 통신, 그것은 14 ~ 26 조 달러의 변화 마케팅 커뮤니케이션 업계에서 향후 몇 년간 그리고 그것은 마치 보이는 기술 중 하나입니다

미래에있을 것이거나 앞으로있을 일이 될 것입니다 솔직하게 파이프 또는 무언가 내려 오는 공상 과학 소설이지만, 실제로 오늘날 조직은 그들의 커뮤니케이션 계획은 많은 기회가 있습니다 그래서 저는 Mike Minecki입니다 Four Kitchens 및 Four Kitchens의 기술 우리는 웹 사이트, 앱 및 소프트웨어를 만드는 디지털 대행사 중요한 이야기를 할 필요가있는 조직 우리는 13 년 동안 있었고, 예일 (Yale)을 포함한 정교한 고객을 단절했습니다

신뢰할 수있는 디지털 파트너로서 목표를 초과했다 Four Kitchen의 웹 교대는 웹 사이트를 만드는 것이 잔치를 준비하는 것과 같이 전문 팀 콘서트에서 일하는 무료 기술 많은 사람들이 즐길 수있는 무언가를 만들고, 그것은 부분 예술이고, 부분 과학이며, 모든 것은 준비에 관한 것입니다 그래서 오늘 내가 잠수하려고하는 것은 기계 학습에 관한 몇 가지 용어를 정의하고 인공 지능, 무엇에 대해 조금 이야기하고, 이 조직들이 어떻게 그러한 일을하고 있는지 당신은 오늘 과학 소설에서 볼 것을 기대할 것입니다 일부 방법으로 뛰어 들고 예일 또는 모든 CMS에서 활용할 수 있습니다 그리고 정말로 희망을 갖고 사람들이 어떻게 그것을 생각하게하는지 앞으로 사용할 수 있습니다

그래서, 내가 말하지 않을 것은 편집 과정에만 집중할 것입니다 편집자에게 실제로 어떻게 영향을 미치는지 그러나 그것이 실제로있는 곳의 세 가지 핵심 영역 오늘 활용되고있는 마크의 커다란 기회는 개인화, 아마도 사람들이 처음 생각할 때 생각하는 한 가지 인공 지능과 콘텐츠 종류가 함께 어울리는 지, 다른 하나는 분석에, 실례합니다 그리고 chatbots에 있습니다 그것들은 그것들 각각이 그것의 자신의 프리젠 테이션이 될 수 있습니다, 그래서 그것이 내가 오늘 떠나는 이유입니다 또한 CMS에서 작동하는 모든 사람은 거의 같은 사랑을 얻지 못한다

그 다른 것들 중 일부 그래서 몇 가지 용어를 정의하는 것만으로도, 머신 러닝 (Machine Learning)은 위키 피 디아 (Wikipedia) 그것은 알고리즘의 카테고리입니다 소프트웨어 응용 프로그램이 명시 적으로 프로그래밍되지 않은 결과를 예측합니다 실제로 통계를 당신이 전통적으로 생각하는 것들 컴퓨터 프로그래밍이 진행 중이고 그것 때문에 흥미로운 기회를 열어줍니다 인공 지능 나는 다소 담요 용어이지만 그들은 상호 교환 적으로 사용된다

누구의 말을하고 청중이 누구인지에 따라 많은 기술자들이 사용하는 것처럼 솔직히 기계 학습 및 마케팅 사람들은 AI를 사용할 것입니다 원인이 소리가 더 시원한 그리고 나서이 일의 큰 부분과 콘텐츠에서 오는 기회가 온다 자연 언어 처리에서 그래서 그것은 인공 지능입니다

컴퓨터가 컴퓨터를 이해하고 해석하며 인간 언어를 조작한다 그리고 우리가 가면서 어떻게 그 일을하는지에 대해 더 자세히 알아보십시오 나에게 다소 도움이되는 한 가지 방법은 기계 학습과 우리가 전통적으로 프로그래밍에 대해 생각하는 것처럼 좀 더 두 가지를 비교하기 위해; 프로그래밍을 할 때 컴퓨터 프로그래밍을 할 때 데이터가 있으므로 데이터베이스에서 데이터를 가져 오는 것과 다른 사람이 입력하거나 사용자가 입력 한 것, 당신은 규칙이 있습니다 프로그래머로 작성하는 함수, 진술과 그 모든 것보다 그런 다음 함께 결합하고 당신은 예측 가능한 결과를 얻습니다

그것은 인간에 의해 작성되었으므로 대부분 예측 가능한 출력이지만, 나중에 테스트를 작성하여 테스트를 개선하십시오 그리고 규칙은 인간에 의해 쓰여지고, 컴퓨터를 프로그래밍 할 때처럼 다시 추적 할 수있는 것처럼 보입니다 단계를 밟아 정확히 무엇을하는지 이해하십시오 대조적으로 기계 학습은 데이터이며, 그래서 당신이 어떤 데이터를 시스템에 입력 하든지간에, 결과를 출력하는 통계 모델을 자신감 점수와는 많이 다르다 프로그래밍은 실제로 결정적이지만 인공 지능과 인공 지능의 결과를 얻을 수 있습니다

50 퍼센트의 1 퍼센트와 50 퍼센트의 다른 90 %는 1 %이고 다른 하나는 10 %입니다 그리고이 모델들, 그들이 만든 통계 모델들 예를 들어 블랙 박스 요소가 있습니다 그래서 당신은 실제로 직접 출력하고 당신은 정말로 그들을 통해 단계 수 그것으로 들어가는 논리를 쉽게 이해할 수 있습니다 그것들은 근본적인 차이점이 있습니다 AI가 열어 놓은 많은 기회를 열어줍니다

또한 자체적 인 일련의 문제를 생성합니다 좋은 점이 무엇인가요? 패턴을 따르고 다음을 기반으로 예측을합니다 그 패턴 그리고 그 예언과 그들이 할 수있는 패턴 정말 으스스한 물건, 이미지의 내부처럼, 어떤 사람이 노력하고있는 것과 정말로 같을 수도 있고 좋아할 수도 있습니다 그들의 말을 사용할 때 말하십시오

그리고 예측을 기반으로 당신이 넣은 엄청난 양의 데이터, 이 데이터 하나를 그 안에 넣어두면 기대할 수 있습니다 이런 식으로 나와야합니다 모델이 세련되면서 시간이 지남에 따라 더 좋아집니다 우리는이 모든 것을 그것으로 경험하고 있습니다 특히 Google과 같은 대기업과 이메일을 읽는 것이 더 좋아지고 있습니다

우리가하려고하는 것과 같은 이해 우리가 Google Home과 대화 할 때 말입니다 그리고 실제로 가장 큰 근본적인 차이와 가장 큰 근본적인 기회 기계 학습과 인공 지능은 그것이 컴퓨터와 콘텐츠 관리 시스템이 처음으로 복잡한 물건을 이미지 나 인간과 인간이 의사 소통하는 것처럼 전에, 미안해, 그 전에는 콘텐츠 관리 시스템은 마치 당신이 물건을 넣을 곳이긴하지만 거기에 무엇이 있는지 전혀 몰라요 그건 상관 없어요 그리고 이번이 처음입니다

콘텐츠 관리 시스템은 실제로 당신이 쓴 것을 읽으십시오 그래서 몇 가지 위험이 있거나 거기에 있습니다 그들이 잘하지 못하는 것들 모델 구축에는 시간과 반복이 필요하며, 그래서 결정적이지 않기 때문에 모델을 만들고, 테스트하여 출력은 실험과 같습니다 바이어스를 매우 쉽게 증폭시킬 수 있습니다

여기있는 모든 사람들이 어떻게 얼굴 인식은 색이 짙은 사람들에게는 효과가 없습니다 그런 것들, 그리고 그것은 매우 실제적인 관심사입니다 그리고 다른 하나는 정말 좋아질 것입니다 매우 방대한 데이터 세트와 지속적인 재배가 필요합니다 그리고 그러한 소규모 조직의 경우 좀 걸림돌처럼 AI와 기계 학습은 실행 가능한 솔루션이되지 못합니다

하지만 여러 가지 방법으로 분류 할 수 있습니다 구글이나 마이크로 소프트 같은 회사들이 이 공간에서 그것들은 정말로 큰 데이터 세트이고 그것들의 출력을 분류합니다 그래서, Cassie Koz – 남자 폴란드어, 당신은 이드가 잘할 것이라고 생각할 것입니다 그것을 발음하지만 나는 포기할 수 없다 이렇게하면 빵을 굽는 사업에 종사하고 있습니까? 아니면 오븐을 만드는거야? 좋아요

이 경우에는 오븐은 구글과 마이크로 소프트에 의해 만들어지고있다 너는 그걸로 물건을 넣을거야 나중에 반죽을 넣고 빵을 다시 가져 오는 걸 압니다 그것을 보는 좋은 방법입니다 오늘 콘텐츠 관리 시스템에 앞서 말했던 것처럼 당신이 그들에게 무엇을 넣었는지 상관하지 않고 정말로 신경 쓰지 마라

그들은 몇 가지 규칙을 가질 수 있습니다 콘텐츠에있는 문자, 그러나 그것이 새의 이야기이거나 그것이 이야기라면 지난 주에 일어난 일 스포츠 게임 그것은 당신이 그것을 말하지 않으면 정말로 모른다 당신이 태그하지 않는다면, 맞죠? 인공 지능과 기계 학습의 변화는 콘텐츠 관리 시스템처럼 처음으로 귀하의 콘텐츠를 실제로 읽고 볼 수 있습니다 그리고 그것은 다소 미래 지향적 인 것처럼 보이지만 우리는 말 그대로 일상 생활에서이 재료로 생활하며, 아마 우리가이 물건들과 함께 살고있는 것보다 우리 CMS가 따라서 주요 출판사는 이미 에 게재되어있다

그들의 인쇄 출판물도 그렇다 기계로 만든 100 % 워싱톤 포스트에는 Heliograph라는 로봇이 있습니다 그것이하는 일은 전국 리그 게임 그것은 아무도 정말로 따라 잡을 수없는 박자입니다 그들은 다르게 지원할 수 없을 것입니다 그러나 인공 지능을 사용하면 사건, 누가 이겼는가, 잃어버린 자, 얼마나 많은 사람들이 기지에 있었는지 등등 템플릿에 기반한 이야기를 작성하십시오

Forbes는 새로운 컨텐츠 관리 시스템 인 Bertie를 보유하고 있습니다 그것이하는 것은 기계 학습과 AI를 사용하는 것입니다 더 나은 헤드 라인을 제안하고 이미지를 찾습니다 작성중인 콘텐츠와 관련이 있습니다 그들은 단순한 일들의 일부를 제거합니다

그리고 Bloomberg, Kenneth는 유명 해졌다 그들이 몹시 불길한 싸이 보그라고 부르는 것, 기업 재무 제표와 뉴스 기사를 만듭니다 이것들은 지금 일어나고있는 것들입니다 이들은 당신이 오늘 읽고있는 기사입니다 마지막 부분은 제가 언급하고 싶은 것이 있습니다

BBC에서 레이더 (Radar) 그것이하는 일은 지역화 된 콘텐츠를 만드는 것입니다 그 (것)들에게 더 관련이 깊고 신랄한 사람으로 만들어라 영국의 다른 부분 그래서 노숙자에 관한 이야기라면, 통계와 관련하여 너 브리스톨에있어 브리스톨의 노숙자 문제에 관해 이야기 할 것입니다

그리고 당신이 런던에 있다면, 노숙자 문제에 대해 이야기 할 것입니다 런던에서 적어도 통계 그 이야기를 사용자로서 더 관련성있게 만드십시오 나는 그것이 가장 매혹적인 일종의 것이라고 느꼈다 이것의 응용 이것이 또 다른 장소입니다

놀랍게도 Google 포토에 다소 효과적입니다 그래서 검색 창에 거의 모든 단어를 입력하면 Google 포토를 사용하면 사진을 다시 볼 수 있습니다 해당 단어에 대해 Google에서 태그를 추가했습니다 그래서 여기서 핑크색을 찾습니다 개를 찾으면, 너는 중국을 찾으면 여자를 찾을 수있다

일본의 모든 것들은 태그없이 내 부분 또는 상호 작용 및 if 당신은 당신이 주목했을지도 모르는 Google 포토를 사용합니다 요즘에는 그것의 측면이 있습니다 너는 ~에 기반한 이야기를 함께 쓴다 함께 움직이는 이미지들 당신이하지 않고도 콘텐츠를 만드는 데 도움이됩니다 실제로 거기 앉아서 모든 것을 조직하고 어떤 사진이 좋은 사진인지 파악하고 어느 것이 함께 가는지

그것은 또한 당신이 글쓰기, 나 외에 다른 사람이 문법을 사용합니까? 그래, 몇 가지, 그래, 난 그것이 잘 작동하는 작품 의미 관련 제안 사항이 있습니다 당신이 그것에 담는 내용을 읽습니다 Gmail 및 편집기와 일종의 통합 그런 것들이 이것입니다 헤밍웨이 (Hemingway)라는 비슷한 저렴한 비용의 물건 그리고 그것은 단지 매달리는 열매가 아니며, 그것은 너무 긴 문장을 찾고 있습니다

덜 효과적인 단어를 찾고 있습니다 당신의 글쓰기를 높이는 것뿐만 아니라, 실례합니다 Google은 또한 API 검토 도구를 사용하여 뉴욕 타임스는 주석에 포함 된 독성의 양 기사에서 작성되므로이 API를 사용하면 피드백을 자동으로 제공하는 도구 만들기 작가들에게 더 빠르게 콘텐츠에 참여하십시오 그래서 그것은 좀 더 넓은 세상에서 AI와 같습니다 우리의 작은 생태계 밖에서 어떤 일이 벌어지고 있는지

많은 Drupal 모듈이 있습니다 몇 가지 초기 것들은 거의 아무것도 좋아하지 않는다 정직하게도 재미있는 우리가 여기서 얘기 한 것들 그 중 하나는 정말 낮은 교수형 과일이고 아마 모든 사람들이 이 방은 자동 대체 텍스트를 작성하고 있습니다 매우 초기에 Google Cloud 비전 통합이 있습니다

태깅 기능을 끌어 들이고 업로드 한 이미지에 실제로 태그를 지정합니다 Drupal은 내가 말하고있는 것과 동일한 모든 태그를 가지고 있습니다 Google 포토 그래서 당신이 여자 사진을 업로드하거나 그 안에 핑크색이 들어간 그림 귀하의 CMS에도 태그가 추가됩니다 더 쉽게 찾을 수 있으며 콘텐츠에 첨부 할 수 있습니다

지능형 콘텐츠 도구라는 도구 모음도 있습니다 Python 및 일부 플라스크 설치가 필요합니다 그런 것 같지만 한번 실행하면 실제로 자동 요약을 수행합니다 그것은 꽤 매혹적이고 꽤 흥미있다 나는 그걸 가지고 직접 놀지 않았다

상자에서 말하는대로 작동합니다 그리고 이것은 시작일뿐입니다 AI가 사용되지 않는 것처럼 콘텐츠 제작은 이러한 도구가 아닌 것입니다 우리가 살고있는 층으로 필터링하는 거지? 그래서, 다음으로 나는 약간의 이러한 API가 어떤 것인지, 레버리지를받을 수있는 것, 그리고 우리가 어느 정도 할 수있는 곳 가까운 장래에 곧 이것이 우리가 생각해 왔던 것이기 때문에, Happygram이라는 데모를 만들었습니다

AI 그리고 당신은 실제로 그것을 나중에 나중에 시험해 볼 수 있습니다 그것이하는 일은 당신에게서 행복한 순간을 모으는 것입니다, 그런 다음 이미지를 사용하여 내가 말하고있는 API 중 일부를 사용하여 Unsplash 잠재적으로 가능할 수있는 것을 보는 재미있는 방법입니다 또한 이러한 기술을 어떻게 사용할 수 있는지 보여줍니다 콘텐츠 제작을 간소화합니다

그래서 나는 Google이 제공하지만 모든 AWS, 마이크로 소프트 애저 (Microsoft Azure)와 구글, IBM Watson은 모두 이러한 기능을 갖추고 있습니다 그들은 그들 사이에 매우 유사합니다 능력에 약간의 차이가 있습니다 그들이하는 일과 가격 책정에서의 미묘한 차이 그래, 맞아 맞아

아마 어느 플랫폼에서 사용할 수 있을지 그래서 첫 번째 것은 Google 자연어 처리 도구, 그들이하는 일은 그들이 당신에게 많은 것을 제공한다는 것입니다 당신이 그것에 넣은 텍스트의 분석 그래서 그들은 감정을 분석하여 긍정적이거나 부정적 인 콘텐츠는 그래서 댓글의 검토와 같은 것들에 유용합니다 또한 고객과의 상호 작용을 이해하는 데 도움이됩니다

또한 작가가되기위한 도구 일 수도 있습니다 그 (것)들에 관하여 의견을 그 (것)들에게 약간 제공 할 수있을 것입니다 그들이 쓰는 내용이 맞습니까? 그들이 뭔가 행복하다고 생각한다면 Google은 다시 돌아와서 실제로 그렇게 행복한 것은 아니라고 말합니다 그것은 다른 방법이 있다는 신호 일 수 있습니다 단어 것들 그것은 매우 심층적 인 분석을 제공합니다

품사 품 및 내용이 다른 단어들이 어떻게 서로 연결되어 있는지, 그리고 당신은 매우 상세한 도구 모음을 가지고 있습니다 능력있는 일종의 문구와 단어들의 연관성을 끌어 낸다 매우 전 세계적인 콘텐츠 분류가 있습니다 일이 생기면 Google에서와 같이 볼 수 있습니다 Wikipedia 기사 등등에 링크되어 있습니다

또한 가장 눈에 띄는 주제를 제공합니다 한 장의 텍스트를 보면서 그렇지 않기 때문에 행동은 꽤 인상적입니다 우리는 핵심 단어 나 검색 등으로 하지만 이것은 다르므로 이것은 콘텐츠가 실제로 무엇인지, 명사의 중요성에 따라 우선 순위를 매기거나 피사체 또는 개체를 호출 할 때 품사에있다 다음 API가 아마도 가장 유용 할 것입니다 이것들과 가장 낮은 교수형 과일은 그저 그렇습니다

즉시 사용 가능하고 또한 매우 쉽다 이미 Google 통합이 있기 때문에, 이미지의 내용을 분류하는 API입니다 이미지에서 오브젝트를 추출합니다 그리고 나는 어쨌든 강아지들과 함께 슬라이드로 이동할 것입니다 그리고 놀랍게도 좋은 일을합니다

나가 이것을 시도 할 때 저를 감명주는 것 것은이다 그것은 개를 찾는다는 것이 아니라 그것이 이 안에있는 개들, 그래서 두 마리의 개를 볼 수는 없습니다 그들은 멀리보고있다 그리고 뒤의 것은 좋아한다 그게 사실인지 여부는 거의 의심 스럽네 고양이 냐 아니냐? 그것이 발견 한 다른 것은 이들은 래브라도 리트리버입니다

실제로 어떤면에서는 의심 스럽지만 놀랍게도 정확합니다 그리고 마침내, 그것이 그들이 사육장, 그리고 나에게 그것은 다소 재미 있기 때문에 당신은 정말로 개집의 모양이나 그냥 그런 것 같아 그것 앞에 수직 막대가있는 개 너는 아주 높은 확률을 가지고있다 개집에있다

그래서 나는이 것들을 파헤 치면서, 그리고 당신은 그들의 웹 사이트에 그들을 밖으로 시도 할 수 있습니다 놀라 울 정도로 정확하고 놀라 울 정도로 정확합니다 마지막 도구는 아마도 가장 강력하고 가장 큰 이점을 제공 할 수있는 콘텐츠 제작자 그리고 Auto ML이라고합니다 그리고 그것이 무엇인지, 그것은 모든 복잡성을 제거하는 도구입니다 자신의 기계 학습 모델을 구축하고 그것을 네 길에서 꺼내

그것은 당신이 귀하의 콘텐츠를 태그로 작품, 그 중 일부는 학습 모델로 사용됩니다 사용하고 모든 콘텐츠를 업로드하고 그런 다음 그것을 통해 알고리즘을 실행하십시오 나중에 데모를 시도 할 때를 볼 수 있습니다 우리는 행복한 순간을 분류하기 위해 그것을 사용했고 약 7 개가 분류되어 있습니다 거의 매 시간마다

매혹적이며 편집자가 퍼팅하는 콘텐츠 가져 오기 귀하의 분류와 함께 태그를 지정하십시오 택 소노 미나 태그로 태그를 지정할 수도 있습니다 분류 체계의 범위 완전히 pedantic과 사용자에 대한 막대한 부담 아무도 여기있는 것처럼 나도 몰라 복잡한 분류법이있다 주위에 싸우는 것은 정말로 이것에 속하거나 그것이 그 속에 속하고 한 사람이 한 가지 방법으로 태그를 추가하지만 다른 사람은 다른 방법으로 태그를 추가하면 엉망이 생기고 내용을 찾기 어렵게 만든다

이 도구를 사용하면 자동화 할 수 있으며 편집자는 단지 글쓰기로 돌아갈 수 있으며 모든 유형의 콘텐츠에 대해 걱정하십시오 정말 도움이 될 수있는 또 다른 것입니다 SEO를 통해 콘텐츠 및 자동으로 Google 또는 페이스 북이 찾고 있습니다 작가의 길 그래서 그것들은 다른 방법들 중 일부입니다

그래서 그것들은 이용 가능한 것들입니다 그러나 대체 무엇을 할 수 있습니까? 그래서 그것은 일상적인 작업을 자동화 할 수 있습니다 그래서 분류, 메타 데이터 작성, alt ~ 중 텍스트 작가와 콘텐츠 제작자가 매일 같이 있습니다 텍스트 요약과 같은 일을하기 시작합니다

또한 데이터를 템플릿과 결합 할 수 있습니다 지금보다 훨씬 똑똑한 방법 그래서 지금 당장 당신은 좋아, 이건 만족할거야 이건 이미지가 될거에요 당신은 그것을 장소에 넣고 모두 함께 맞습니다

하지만 이제는 더 깊은 계층으로 갈 수 있습니다 BBC와 같은 것을해라 당신에 대해 이야기하면 콘텐츠를 현지화 할 수 있고 관련 통계에 대해 이야기하십시오 사용자 또는 기사 하나 작성, 캠퍼스의 여러 학교에서 사용하고 지능적으로 관련 정보를 대체하십시오 그것은 또한 매우 깊은 분석을 제공 할 수 있습니다

내용과 매우 공정하지 않은 분석 따라서 Hemingway 및 Grammarly와 같은 도구 작가의 글쓰기 방식에 대해 작가에게 피드백을 줄 수 있으며, 그것이 얼마나 효과적이며, 어떻게 작동하는지 그러나 또한 다음과 같은 진입 점을 제공 할 수도 있습니다 캠퍼스에서 사용되는 모든 미디어 및 중앙 집중화하고 그것을 만드는 방식으로 태그 지정 캠퍼스의 다른 부분에 유용합니다 그래서 그 때처럼, 다시 개집 안에 강아지의 그림, 아마도 당신이 매우 훈련 된 콘텐츠 제작 팀 if 그들은 태그를 붙일 이미지를 업로드하고있었습니다

개가 강아지라고 태그를 붙이 겠지만 있을 법하지도 않으며, 어디에서 가져 갔는지 아마,하지만 그들은 실제로는 그 사진에 그들이 개집에 있다는 사실을 표시하십시오 그것은 이상한 세부 사항과 같아요 Google이 선택하지만 그렇지 않은 경우 아마 결코 올라 오지 않을 것 인 개집에 관한 기사 콘텐츠 제작자의 마음, 맞습니까? 그러나 여기, 그것의 다만 아주 pedantically 그리고 아주 깊이있는 것들을보고 일종의 그가 이전에 보았던 것과 그것을 비교하고 거기에 있다고 생각하는 것을 말하고 있습니다 이것이 활용 될 수있는 또 다른 방법은 콘텐츠를 개선하고 들어오는 분석 데이터 및 어떤 종류의 헤드 라인이나 헤드 라인을 다시 말로 표현할 수있는 방법 콘텐츠가 사라지면 더 효과적입니다 그리고 마지막으로 깊은 분류와 매우 공평하지 않은 콘텐츠 분류

그래서 이것들은 가능한 것과 같은 모든 것들입니다 기계 학습과 인공 지능으로 할 수 있습니다 하지만 하나의 큰 경고가 있습니다 모델을 만들거나 정보를 넣을 때 기계 학습 모델이다 당신이 정말로 아주 깊게 보입니다

그것이 당신이기 때문에 무엇을 넣고 있습니까? 블랙 박스는 쉽게 조사 할 수는 없습니다 하나의 콘텐츠 만 만들거나 편견을 가진 이미지 또는 말하지 않는 이미지 모두가 있지만 실제로는 캠퍼스 전체에서 문제를 만듭니다 그리고 제안을하는 것과 같은 일을 할 때 콘텐츠를 개선하거나 정말로 바이어스를 강화할 수 있습니다 ' 그 모델을 만드는 사람들, 맞죠? 그리고 그것은 미묘한 방법으로 일어날 것입니다 그것은 또한보다 큰 규모로 일어날 것입니다

한 명만 쓰면됩니다 그래서 윤리와 AI가 실제로 같이 가야하는 이유입니다 대화에서, 그것은 이런 식으로 뉴스에 등장하지만 그것은 FUD가 아니라 과장이 아니며, 이 말 그대로 문자 그대로 도구는 편견을 자동화하고 보급합니다 구글과 다른 모든 아마존 모두 그들의 윤리 및 그들이 어떻게 접근하고 있다면 그것은 작동합니다 너는이 물건에 잠깐 뛰어 들었다

그들이 어떻게 접근하고 있는지, 그리고 그들이 이미 만든 실수 그게 다야! (박수 갈채) (목을 가다듬 다) (부드러운 진동 음악)

Machine Learning using Arm

이 기계 학습 주제에 오신 것을 환영합니다 여기서는 기계 학습 방법을 살펴 봅니다

Arm의 기술과 함께 작동합니다 ARM은 기계 학습을 할 때 소프트웨어 및 하드웨어 제품을 제공합니다 주요 응용 프로그램, 알고리즘 및 프레임 워크와 함께 작동하는 TensorFlow Lite와 PyTorch 암의 자체 소프트웨어 제품이 통합 및 최적화 Arm 하드웨어를 사용한 기계 학습 응용 프로그램, 이 항목에서는이 소프트웨어 기능에 대한 개요를 제공합니다 하드웨어 암에 관해서는 Arm을 포함하여 여러 제품을 살펴보십시오 기계 학습 프로세서

Arm의 하드웨어 제품은 컨벌루션 뉴럴 네트워크 (convolutional neural network) 이 코스는이 기술과 오브젝트 적용에 대한 개요를 제공합니다 발각 우리는 가장 인기있는 물체 감지 기술과 장단점 또한 OpenCL API에 대한 공개 표준 인 OpenCL API를 살펴볼 것입니다 CPU 및 GPU와 같은 다양한 장치를 프로그래밍합니다

그래픽 처리 장치의 범용 계산을 위해 설계되었습니다 오늘날의 GPU의 힘으로 기계 학습을 할 수 있습니다 마지막으로 Arm 하드웨어에서 ML 작업을 효율적으로 실행하는 방법을 살펴 봅니다 Arm Mali GPU에서 실행되는 ML 애플리케이션을 프로파일 링하는 방법에 대한 데모를 보여줍니다 ARM에서 ML 작업을 수행하는 방법에 대한 지침을 제공합니다

Cortex-A 및 Arm Cortex-M 기반 장치

How Treasurers Are Using Machine Learning | Treasury Services Innovation | J.P. Morgan

[밝은 음악] Bruce : 우리는 데이터 혁명이라 부를 것입니다 기계 학습은 데이터를 제공 할 수 있으며, 사실, 의사 결정 및 권장 사항 인간이 올바른 결정을 내리는 데 정말로 도움이됩니다

어떻게 데이터 제품을 만들어서 대답 할 수 있을까요? 그것은 한 사람의 일이 아닙니다 그것은 한 분야의 일이 아닙니다 너는이 다 분야 머리를 필요로한다 재무 고객도 포함합니다 그 대화의 일부가되는 것

American Cancer Society: Powering cancer research using Google Cloud machine learning

우리는 과거 연구에서, 유방암의 병리학이 얼마나 중요한지 그것은 단지 하나의 질병이 아닙니다

다양한 유형의 유방암이 있습니다 그러나 우리는 여전히 정말로 이해하려고 노력하고 있습니다 다른 유형이 어떻게 생겼는지 그래서, 기계 학습 도구를 실제로 활용하는 방법 우리가 유방 조직 내의 기본 패턴에 대한 이해를 촉진하도록 돕기 위해 정말 효율적입니다 우리는 조직 표본으로 1700 건의 사례를 볼 수 있습니다

20 년 넘게 데이터에 적용하십시오 그리고 우리는 실제로 그것을 할 수있었습니다 3 개월의 시간 아마도 병리학 자 팀이 할 수있는 몇 년이 걸렸을 것입니다 네, 그 이미지는 5 ~ 10 기가입니다

권리? 그래서 만약 1,700을 곱하면 엄청납니다 네 알고리즘의 여러 레이어 적용 기본적으로이 무 감독 클러스터링을 수행합니다 그래서 우리는 "이봐, 우리가 가지고있는 모든 타일을 그룹으로 묶어 줄 수 있습니까? " 중요한 점은 그 클러스터 중 일부는 실제로 우리가 발견 할 것으로 기대되는 것입니다 그리고 클러스터 중 일부는 우리가 전혀 설명 할 수없는 것들이었습니다

이는 감독되지 않은 접근 방식의 이점입니다 그래서, 우리가 클라우드 옵션을 고려할 때 Google은 프라이버시와 HIPPA 및 기타 연방 규정을 준수하는 것이 선택에 중요했습니다 이 프로젝트에 대해 내가 좋아하는 것들 중 하나 미국 암 협회 (American Cancer Society) Slalom 및 Google과 같은 사회적으로 의식있는 기업과 파트너가 될 수 있습니다 과 암 연구를 발전시키기 위해 협력하십시오 우리 모두는 어떤 방식 으로든 암에 영향을 받았습니다

그래서 작은 작은 함몰을 넣을 수도 있습니다 맞아, 정말 멋지다