K Vecinos más Cercanos – Práctica | #41 Curso Machine Learning con Python

여러분 안녕하세요, 채널의 새로운 비디오에 오신 것을 환영합니다 오늘 우리는 실용적인 부분을 보게 될 것입니다 가장 가까운 K 이웃 알고리즘 중 주어진 데이터에 따른 유방암

그러나 프로그램을 시작하기 전에 빨간 버튼으로 채널을 구독하도록 초대합니다 아래에있는 동영상을 놓치지 마세요 또한 이론에 관한 이전 비디오를 보지 못한 경우 권장합니다 Scikit Learn 라이브러리를 사용하여이 알고리즘을 구현하는 방법을 잠시 멈추십시오 이 비디오와 당신은 그들이 설명 할 내용을 이해하기위한 기초이기 때문에 그들을 보러갑니다 이것에서 이 비디오의 링크는 설명 상자에 있습니다

이제이 비디오부터 시작하겠습니다 이 프로젝트에서는 유방암 데이터 세트를 계속 사용하거나 scikit 학습 라이브러리에서 사용 가능한 BreastCancer 이것은 회귀 알고리즘의 실제 부분에 사용하는 것과 동일한 데이터 집합입니다 여기에서 물류는 데이터를 가져 와서 해당 데이터의 전처리를 수행합니다 이러한 이유로 우리는 K 이웃 알고리즘을 구현하는 방법에만 초점을 맞출 것입니다 더 가까이

이 경우 해당 컨텐츠에 게시 된 정보를 볼 것을 권장합니다 이 프로젝트의 첫 번째 부분을 수행하는 방법에 대해 더 알고 싶습니다 이 시점에서 이미 데이터와 데이터에 해당하는“X”데이터를 분리했습니다 목표에 해당하는 "and"의 결과로, 훈련에서 데이터를 분리해야합니다 이것을 테스트하기 위해 우리는 sklearn에서 모듈 train_test_split을 가져 와서 적용합니다 각 분리를 수행합니다 이것으로 모델 개발을 시작할 준비가되었습니다 이런 이유로 우리는 수입 “skelarn

neighbors”에있는 알고리즘은 KNeighborsClassifier를 가져옵니다 이 작업이 완료되면 알고리즘을 정의하고 여기에서 구성하면 "k" 이웃의 수가 5와 같으면 메트릭은 "minkowski"이고 "p"는 이 두 요소의 조합은 알고리즘을 나타냅니다 유클리드 거리를 사용하여 이웃 사이의 거리를 확인합니다 이것은 위에서 설명했다 이것들을 보면 알고리즘이 구성된 기본 데이터입니다 원하는 경우이 구성을 삭제하고 괄호를 비워 둘 수는 있지만 나중에 모델을 개선하기 위해 변경하고 조정할 수 있습니다

알고리즘이 정의되면 이제 훈련 데이터를 사용하여 모델을 훈련시킵니다 그리고 테스트 데이터를 사용하여 예측합니다 계산 된 데이터와 실제 데이터를 비교하면 대부분은 일치하지만 일부는 일치하지 않지만 대부분 일치하면 언뜻보기에 모델이 잘 개발되었다고 판단 할 수 있습니다 그러나 이것이 사실인지 확인하고 혼동 행렬을 계산합시다 sklearn 메트릭의 confusion_matrix 메소드를 예측 데이터와 함께 구현합니다

실제 데이터 보시다시피, 정확하게 예측 된 데이터는 거의 없었습니다 주 대각선에있는 데이터는 정확하게 예측 된 데이터임을 기억하십시오 보조 대각선에는 오류가 있습니다 이 요소들을 추가하면 109 개의 정확한 데이터와 5 개의 잘못된 데이터 만 얻었습니다 이제 모델의 정밀도를 보도록하겠습니다

이를 위해 메트릭에서 "precision_score"를 가져옵니다 예측 및 실제 데이터와 함께 구현합니다 이 계산의 결과는 097이며 이는 상당히 수용 가능한 값입니다 이것으로 우리는이 알고리즘으로 다음과 같은 결과를 얻을 수있다

이 데이터 세트 당신이 그것을 개선하고 얻을 수 있는지 확인하려면 그것은 당신에게 달려 있습니다 더 정확한 것을 위해, 알고리즘 구성 데이터를 수정할 수 있습니다 이것으로 우리는이 분석으로 결론을 맺습니다 의견이나 의견을 남겨 주시면 기꺼이 답변 해 드리겠습니다 전체 프로그램은 웹 사이트에서 찾을 수 있습니다

같은 방식으로 블로그를 둘러 보도록 권유합니다 머신 러닝에 대한 더 많은 정보를 찾을 수 있습니다 시청 해 주셔서 감사합니다 다음 비디오에서 see겠습니다 안녕

Neo4j Online Meetup #41: Deep Learning on Graphs

– 안녕, 모두들 저는 카린 월크입니다

저는 커뮤니티 매니저입니다 Neo4J의 개발자 관계 팀 나는 동료 인 마크 니드 햄 (Mark Needham)과 함께 여기에있다 또한 개발자 관계 엔지니어 중 한 명으로, 내 동료 중 한 명인 Andy Jefferson, 누가 오늘 우리의 발표자인가? 누가 그래프에 대해 자세히 배우고 있는지 이야기 할 것입니다 앤디, 너를 소개시켜 줄거야 원한다면

– 좋아, 모두 안녕 네, 저는 Neo4J의 소프트웨어 엔지니어입니다 나는 또한 조직의 연구원으로 일하고있다 옥타 비안이라고 불렀고 그래서 나는 말할거야 나는 옥타 비안에서하는 연구에 대해 지식 그래프에

– [Mark] 예, 조금만 더 빨리 할 수있게하겠습니다 네가 시작하기 전에 정리를해야 해 앤디 Andy가 제시하는 동안 질문이 있으면 YouTube 채팅에있는 사람들에게 언제든지 물어보십시오 우리가 오른편에있다 때로는 YouTube가 해결책을 제시하지 않습니다 적절한 해상도로, 그래서 당신의 오른쪽 하단에 제어판에 작은 톱니 바퀴가있다

거기에 HD 아이콘이 있습니다 최소 720P로 설정하면 볼 수 있습니다 모든 것이 분명히 분명합니다 그것 이외에, 나는 그것을 Andy에게 돌려 줄 것이다 나도 거기에 누군가가 있다면, 추가하고 싶다

하나에 공유하고 싶다면 앞으로 온라인 모임에 대해 커뮤니티 사이트로 이동하여 프로젝트를 게시 할 수 있습니다 프로젝트 또는 블로그 게시물과 같은 콘텐츠의 경우, 그게 우리가 선택하게 될 곳이야 우리의 미래 회담 그래서, 당신은 또한 거기에 투표 할 수 있습니다 당신이 미래에보고 싶어하는 것

– [Andy] 굉장해 나는 너희들이 화면을 볼 수 있기를 바랍니다 그래, 우리 모두 잘됐다 – [Andy] 굉장해 멋지다

그래서 Graph AI에 대해서 이야기 할 것이다 나는 이미 자신을 조금 소개했다 이 슈퍼를 분명하게하기 위해서, 저는 Neo4J의 클라우드 팀 엔지니어입니다 우리는 클라우드에 Neo4J 소프트웨어 서비스를 구축하고 있습니다 그것은 꽤 흥미로운 일입니다

하지만 오늘은 연구에 대해 이야기하고 있습니다 나는 옥타 비안에서 인공 지능을 수행한다 Octavian은 오픈 소스 리소스입니다 (오디오는 잘립니다) 그리고 당신이 아니라면 (오디오가 끊어짐) 그래프는 우리가이 노드들을 가지고 있다는 것입니다, 이들은 에지들에 의해 연결되고, Neo4J에서는이 속성 그래프 모델을 사용합니다 특성 그래프 모델 내에서 노드와 모서리 속성을 가질 수 있습니다

따라서 노드와 같은 직원은 속성을 가질 수 있습니다 이름, 생년월일, ID 번호, 어쩌면 거주 국가, 관계는 속성을 가질 수 있습니다 관계형을 갖는 것뿐만 아니라, 하지만 여기에는 두 가지 유형의 관계가 있습니다 같은 위치와 CEO 따라서 아래 이미지는 그래프 모델입니다

DeepMind는 최근의 연구 논문에서 사용했다 내가 그걸 꺼낸 이유는 이 두 모델이 같은 것을 보여주는 것입니다 더 수학적 형식주의에서, 하지만 당신은 똑같은 정보를 가지고 있습니다 관계로 연결된 노드가 있습니다 노드와 관계는 모두 속성을가집니다

DeepMind 모델에서 이것을 속성이라고합니다 그들은 종종 벡터로 생각됩니다 그러나 모델은 동일하고 우리는 둘 사이에 그럼, 우리가이 그래프에서 우려하는 것입니다 그래프는 표현할 때 정말 강력합니다 모든 종류의 다양한 지식, 정보 및 데이터 그럼, 왜 우리는이 그래프에 관심이 있습니까? 내가 말했던 것처럼, 그들은 정말로 강력하다

우리는 그들을 (오디오 컷 아웃) 레온 하드 오일러 (Leonhard Euler) 그는 여기 왼쪽 상단에있는 사람이야 그는 그래프 이론 내에서 유명합니다 Königsberg 문제의 일곱 가지 교량에 대해서, 처음으로 기록 된 수학적 그래프 문제인데, 또는 그래프 증명 그러나 여기에 그래프의 다른 예제가 있습니다 우리가 생각하는 것

오른쪽 상단에는 세미 그래프가 있습니다 우리가 일종의 이상화 된 세계를 묘사하는 데 사용할 수있는 일련의 관계 왼쪽 하단에는 더 많은 정보가 있습니다 일종의 데이터베이스 그래프, 그래서 우리는 서로 다른 인스턴스에 대한 많은 정보를 얻었습니다 고객, 제품 (오디오 컷 아웃) 서로 상호 작용하고 계속 추적하기 얼마나 많은 고객이 우리와 같은 것을 좋아합니까? 오른쪽 하단에는 대중 교통 네트워크 그래프가 있습니다

도시에 살고있는 사람이라면 누구나 그곳에 익숙 할 것입니다 따라서 이러한 각각의 표현은 유용합니다 우리에게 다른 방식으로,하지만 그들은 모두 그래프입니다 그들은 모두 노드와 모서리로 이루어져 있습니다 그래서 우리는 그래프에 관심이 있습니다

그래프는 어디 에나 있으며, 우리는 많은 지식을 나타낼 수 있습니다 그래프를 사용하여 그래프를 조작하는 방법을 알고 있다면 영리하게 이해하면 상호 작용할 수 있습니다 그 지식으로 질문은 : AI는 무엇입니까? 나는 그걸 시도하려고하지 않을거야 나는 그 해답을 모른다

깊은 학습이란 무엇에 대해 이야기 할 것입니까? 그래서, 깊은 학습은 이것을 빌딩 블록으로 가지고 있습니다 이것이 대화 형이라면 얼마나 많은 사람들에게 물어볼 것입니다 전에 이것을 보았습니다 그러나 일반적으로 내가 그 질문을하면, 그것은 제가 관객에게 선물하는 사람들의 약 50 %입니다 그리고 이것이 밀도가 높은 층들입니다

신경 네트워크에서 그래서이 신경망에서 각 층의 각 항목 모든 항목에 완전히 연결됨 이전 계층에서 두 개의 숨겨진 레이어가 있습니다 그리고 그것은 깊은 곳에서 오는 곳입니다 그래서 우리가 깊은 신경 네트워크에 관해 이야기 할 때, 깊이는 신경망의 레이어 수입니다

그리고 이러한 완전히 연결된 레이어, 머신 학습 및 그라데이션 비율을 통해, 한 레이어에있는 노드의 매개 변수를 배우게됩니다 다음 계층의 노드와 상호 작용하며, 인공 지능 혁신의 전체 범위를 구성하는 요소입니다 최근에 와서 그러나 이러한 신경 네트워크의 기본 빌딩 블록 일반적으로 조밀하게 연결된 레이어를 사용합니다 그래서, 그들은 무엇을 위해 사용되고 있습니까? 이 AlphaGo는 아마도 가장 유명한 응용 프로그램입니다 깊은 학습과 AlphaGo 사용 컴퓨터를 훈련시키는 심화 학습 연주하는 법을 배우는 것 가장 좋은 것보다 나아지기 세계에있는 플레이어를 찾으십시오

따라서 이것은 AI보다 인간을 능가하는 훌륭한 예입니다 깊은 학습을 사용하지만 몇 가지가 있습니다 우리도 잘 볼 수 있습니다 그래서, 여기에 이미지 인식 세계가 있습니다 왼쪽에는 MAC Nets라는 신경망이 있습니다 나는 열렬한 팬이다

이것은 다단계 추론을 보여준다 신경망에서 동시에 이미지 프로세싱을하는 것으로 왼쪽에는 질문을 받았습니다 그래서 이것은 이미지 인식, 자연 언어 처리 및 다단 추론, 그것은 정말로 굉장하다 그래서이 질문에 대한 질문 오른쪽의 매트 한 색은 어떤 색 이었는가? 작은 파란색 블록 앞의 구면? 중앙 컬럼에서 우리는 단어 중 어느 것이 기계, 신경 네트워크,에 초점을 대답에 도달하기위한 추론의 각 단계에서, 오른쪽에서 우리는 이미지의 어느 부분을 볼 수 있습니다

AI는 각각의 추론 단계에 초점을 맞추고있었습니다 답을 찾을 때까지 그래서, 시작합니다 (오디오가 끊깁니다) 구체를 찾은 다음 마침내, 그것은 대답 인 실린더를 골라냅니다 질문에 그래서, 이것은 정말로 굉장합니다

그리고 그것은 무언가입니다 그것은 많은 작업에서 영감을 얻었습니다 오른쪽에, 당신은있어 정말 복잡한 문제들 오른쪽 상단은 이미지 분류 문제입니다 하지만 동일한 이미지에서 여러 부분을 분류하고 있습니다

오른쪽 하단에는 문제가 있습니다 인공 지능은 자동차가 어디에 있는지 예측하고 있습니다 갈 가능성이 가장 큽니다 따라서 경로 예측은하지만 정지 이미지에서 수행합니다 그래서, 이것은 자동차에 대해 배우고, 그 차가 앞으로 나아가는 경향이있다

그리고 나무들, 그리고 그들은 도로를 따라 운전하는 경향이 있습니다 그것은 정말 정교한 인공 지능의 조각입니다 모든 (오디오가 끊어짐) AI의 성능은 물론 그 이상 인간이하는 일보다 그래서, 우리는이 초인간 수행 AI 그래프의 세계에 적용하고 싶습니다 우리는 모든 종류의 정보를 나타내는 데 사용합니다 우리 가게의 주식에서 우리가 여행하는 방법 대도시 주변

시작하기 전에 한발 뒤로 물러서 기계 학습이 무엇인지 생각해보십시오 기계 학습 프로세스 및 인터페이스는 어떤 모습입니까? 그래서 기계 학습에서 우리가 생성하는 것 훈련 모델입니다 (오디오가 잘립니다) 일부 데이터를 이해하는 방법을 배울 수 있습니다 그리고 우리는 그것을 많이 줘서 훈련시킨다 많은 데이터 사례 그로부터 일련의 매개 변수를 학습합니다

데이터에서 일부 결과를 예측할 수 있습니다 우리가 모델을 훈련했을 때, 기본적으로 우리가 그 모델로 할 수있는 두 가지가 있습니다 매개 변수 또는 가중치를 볼 수 있습니다 그것은 배웠거나 우리는 단지 그것을 사용할 수 있습니다 예측하기

때때로 우리는 하나 또는 다른 것을 할 때가 있으며 때로는 양쪽 모두를 수행하기도합니다 좀 더 구체적으로하기 위해, 우리는 단지 선형 회귀에 대해 생각할 수 있습니다 이 프레임 워크 내에서 선형 회귀 분석에서 Y는 MX + C 그리고 아마도 대부분의 사람들이 그 모델을 잘 알고있을 것입니다 이 모델에서 매개 변수 또는 가중치는 우리가 배우는 것은 M과 C입니다

우리가 모델을 훈련 시키는데 사용하는 훈련 데이터 X와 Y 값의 목록입니다 따라서 X는 입력 값이고 Y는 출력 값입니다 우리가 예측하는 것 우리는 그 값의 부하로 그것을 훈련시킨다 Y가 무엇인지 알아 내고 싶다면 주어진 X에 대해 모델에 플러그인 할 수 있습니다

우리가 배운 매개 변수로 때로는 (오디오가 잘리는) 그리고 모델의 예측 적 성격에 대해서는 덜합니다 다른 시간에, 우리는 훨씬 더 신경을 쓴다 모델의 예측 적 성격, 매개 변수에 대해서는 전혀 언급하지 않았습니다 분류기에도 동일한 접근 방식이 적용됩니다 이미지 분류기와 같은 신경 네트워크 분류기와 유사합니다

전에 보여 줬던 우리는 정확히 같은 방식으로 그들을 훈련시킵니다 모델은 신경망입니다 이 모델은 전체 매개 변수를 사용합니다 여기서 우리 모델의 매개 변수 인 W는, 실제로 수천의 행렬입니다 또는 수십만 가지의 가치가 있습니다

(오디오 컷 아웃) 그 이미지들의 카테고리, 따라서 훈련 데이터는 이미지 그물 일 수 있습니다 예를 들어, 이것은 그림의 전체 모음 인 목록입니다 그리고 각 사진에 대해 분류 이것은 개 그림입니다 이것은 고양이 그림입니다

이것은 자동차 사진입니다 우리는 수십만 개의 이미지를 가져갑니다 우리는 모델을 훈련시키고 학습합니다 가중치의 전체 집합과 그 가중치 신경 네트워크가 이미지를 분류 할 수있게합니다 기계 학습의 또 다른 예는 자연 언어입니다

이것은 가중치를 사용하는 예입니다 예측력보다는 오히려, 단어를 삽입 할 때입니다 그래서, 그것은 vec에 대한 단어와 같은 것이 될 것입니다 Word to vec는 본질적으로, 벡터에 대한 단어의 사전 전체 (오디오 컷 아웃) 그런 다음이 벡터는 다음 단계에 사용됩니다

다른 기계 학습 또는 예측 프로세스에서 훈련 된 방법은 확률을 예측하는 것입니다 특정 단어가 문맥에 나타납니다 주어진 단어를 둘러싸고있는 우리는 신경망을 훈련 시켜서 예측합니다 그러나이 훈련으로 우리는 실제로는 신경 쓰지 않습니다 어떤 단어를 예측할 수 있는지 특정 단어와 같은 문장에 나타납니다

우리가 신경 쓰는 것은 그 결과 단어 임베딩, 우리가 나간 훈련 된 무게 야 그 단어가이 속성을 가지고 있다는 사실 유사한 단어는 유사한 삽입을 갖는다 그래서, 여기서 깊은 학습이란 무엇입니까, 깊은 학습은 기계 학습, 데이터로 모델 교육, (오디오 차단) 알맞은 그라데이션을 사용합니다 당신이 그 모든 것을 완전히 따르지 않는다고 걱정하지 마십시오 당신이 이해하는 한, 이것은 높은 수준입니다

우리가하려는 VO 일, 괜찮아 그렇다면 우리는 어떻게이 깊은 학습을해야합니까? 그래프에 적용할까요? 아마도 이것은 가장 무서운 슬라이드 일 것입니다 전체 프리젠 테이션에서 하지만 우리는 옥타 비안에서 찍은 것을 시도했습니다 그 길로 돌아가서 무엇이 경로인지 이해하십시오

우리는 기계 학습에 대해 다음과 같이 말했습니다 우리는 기계 학습이 그래프상에서 어떻게 작동하는 것을 좋아할 것입니까? 그래서 우리는 이미지 분류기에 대해 생각했습니다 그들이 일하는 방식은 예측할 것을 배웁니다 이미지가 카테고리에 속할 확률 말인가요? 개? 고양이? 차? 따라서 각 카테고리의 확률을 예측해야합니다

주어진 이미지를 입력하면됩니다 회선 또는 신경 네트워크를 이미지에 적용하여 그렇습니다 우리가 그래프로하고 싶은 것 아마도 그래프의 한 부분, 하위 그래프, 그것이 속한 어떤 카테고리를 예언하고, 또는 아마도 노드에 속한 클래스를 예측하고 싶을 것입니다 그 노드 주위의 서브 – 그래프에 기초한다 예를 들어 우리가 원하는 예측이 있습니다

어떤 방법으로 투표 할 거니? 공화당에 투표 할거야? 아니면 민주당에 투표 할 거니? 그리고 우리는 기반을 다질 수 있습니다 (오디오가 끊어짐) 홉이나 두 홉, 알았지? 이제 우리는 원하지 않기 때문에 그렇게하고 싶지 않습니다 민주주의를 파괴하기 위해 예측 그래프 알고리즘 그래서 우리는 조사를하고 싶었습니다 우리가 기계 학습을 할 수있는 방법을 그래프에 적용 할 수 있습니다 서브 그래프에 적용하면, 우리는 그것을 훈련시키고 싶다

그래프의 하위 그래프 또는 노드 예측 결과, 회귀 분류, 또는 그들을 기반으로 임베딩 그래서 그것은 우리의 목표였습니다 이제는 기존 메커니즘이 있습니다 vec 노드와 같은 그래프에서 사용할 수 있습니다 우리는 적합하지 않았기 때문에 좋아하지 않았습니다

이 패턴으로 예를 들어, vec 노드가 작동하는 방식은 다음과 같습니다 무작위 경로를 취하고, 그래프 내에서 무작위로 걷습니다 신경망을 가진 사람들을 사용합니다 교육 자료로, 우리가 그걸 싫어했던 이유 훈련 데이터의 각 항목 그래프에서 무작위로 걷는 것입니다 (오디오 컷 아웃) 그래프 구조와 그래프 정보를 버리고 있습니다

복잡한 서브 그래프에서 변환하려면 간단한 시퀀스, 무작위 걸음, 그리고 당신은 당신이 적합 할 수 있도록 데이터를 버리고 있습니다 당신이 가진 훈련 모델로 따라서 훈련 모델은 시퀀스에만 대처할 수 있습니다 그것은 자연 언어 처리로부터 적응 되었기 때문에, 그래프 데이터를 버리고 있습니다 우리의 신경 네트워크 모델에 맞게 우리는 그렇게하고 싶지 않았습니다 우리는 모든 그래프 정보를 유지하기를 원했습니다

신경망을 적응시키는 방법을 찾는다 그 그래프 정보를 다룰 수 있어야합니다 그래서 우리에게는 목표가 있었지만, 분명히 우리는 목표가 없습니다 그 일을하는 유일한 사람들, 그래서 우리는 보았다 이미 진행중인 작업을 살펴 ​​보았습니다

그래프로 깊은 학습의 세계에서, 거기에는 상당한 양의 물건이 있습니다 따라서 결과는 두 가지 예입니다 그래프에 신경 네트워크를 사용하는 연구에서 내가 여기서 꺼내고 싶은 것들 중 하나 이것들이 달성하지 못한다는 사실이다 우리가 얻을 수있는 초인적 인 성과 이미지와 같은 것들에 대한 깊은 학습이나 고 (Go) 학습

그래서 왼쪽의 결과는 여기에 있습니다 깊은 삽입 GL 접근법을보고있다 및 그래프 매입 접근법 인 vec에 대한 노드 (node ​​to vec) Deep GL은 node to vec보다 성능이 우수합니다 그러나 당신은 그것이 얻는 성공율이 기껏해야 87 %이며 실제로 여기에 많이 있습니다 80 % 미만이고 80 % 미만은 5 번에 1 번 이상 잘못 듣고 있어요

우리는 정말로 물건을 찾고 있어요 그보다 더 높은 성공률을 달성 할 수 있습니다 유사하게 분류 작업과 함께 오른쪽에, 당신은 달성하고있는 것들이 있다는 것을 알 수 있습니다 50 또는 60 %, 오른쪽 하단에는 할일이있다 화학 반응 예측

화학 반응 예측 과제는 정말 흥미 롭습니다 많은 하위 그래프를 다루기 때문에 레딧 (Reddit)과 같은 것을 보는 것과 비교하면, 정말 거대한 하나의 그래프를 분석하고 있습니다 그러나 아직도, 화학 예측에, 첫 번째 예측을 볼 때, 신경망으로부터의 최고 예측과 같이, 성공률은 78 %입니다 그래서 우리는 이것을 향상시킬 수있는 범위가 있다고 생각했습니다 따라서 이러한 많은 기존 메커니즘 우리가 어떻게 복잡하게 그래프와 같은 가변 구조 고정 된 크기의 행렬에 맞 춥니 다

기존 신경망 기술을 적용하기 위해 그래서, 대부분의 기존 신경 (오디오 컷 아웃) 소정의 매트릭스 크기, 그리고 그것을 처리 할 수 ​​있습니다 예측을하십시오 하지만 그래프로, 내가 사람을보고 싶다고 말하면 나는 그들의 친구들을보고 싶다 또는 대중 교통 네트워크를 다루는 경우 그리고 나는 그래프를 얻었고 나는보고 싶다 내가 갈 수있는 모든 곳에서 내가있는 역에서 5 정거장 안에있다

현재 위치에 따라 데이터의 크기와 모양 근본적으로 다를 수 있습니다 친구가 10 명 밖에되지 않을 수도 있습니다 또는 1000 명의 친구가있을 수도 있습니다 따라서 그래프에서 고정 크기 행렬로 이동하십시오 기술적 인 수학적 도전이다

이러한 많은 접근 방식으로 문제를 해결하려고합니다 그들이 그것을 어떻게 풀어 냈는지 보여주는 한 예 그래프에서 무작위로 걷는 것, 그러나 더 많은 연구를 한 후에, 이것은 약간의 빨간 청어로 밝혀졌다 따라서 신경 네트워크가 어떻게 작동하는지 생각해보십시오 많은 사람들이 신경망이 좋다라고 말합니다 구조화되지 않은 데이터의 경우 실제로 작동하는 방식 그리고 그들이 성공한 것들 매우 구체적인 데이터 구조에 묶여 있으며, 그래서 신경 네트워크는 이미지를 분류하는 데 아주 좋습니다

내가 말했듯이 모든 종류의 일을하는 것처럼 이미지 처리 작업의 시퀀스 다루기 자연어 작업은 거의 항상 그렇습니다 시퀀스로 접근했다 그래서 그들은 일련의 말을 듣고, 때로는 한 단어 안에 일련의 문자들, 때로는 시퀀스를 양방향으로 처리하지만, 그러나 그들은 항상 서열을 다루고있다 자연어 및 이미지 용 이미지 격자, 이것들이 가지고있는 재산은 우리가 이미 알고있는 것이다

개별 데이터 포인트가 어떻게 관련되어 있는지 미리 알아 봅니다 서로 또는 개별 직책 입력 행렬 안에서 그래서 순서대로, 뭔가 앞에 오는 항목 이후에 오는 항목이 더 관련성이 있습니다 시퀀스에서 멀리 떨어진 항목보다 픽셀이있는 이미지가있는 이미지 서로 인접하거나 서로 가까이있는 멀리있는 픽셀보다 관련성이 높습니다 서로에게 그리고 신경망이 사용하는 구조 성공하려면 해당 데이터를 나타내는 것입니다 그래서, Go 판을 보면서, Go 모델은 밀도가 높은 신경망을 사용할 수 있으며, 이사회의 모든 위치가 똑같이 관련되기 때문에 다른 모든 위치

고 (Go)가 연주되는 방식 때문에, 칠판 한 구석에서 타일을 재생할 수 있습니다 위치에 영향을 미칠 수 있습니다 보드의 다른 구석에 따라서 밀도가 높은 네트워크를 사용하면 동등한 가능성이 있기 때문에 이사회의 모든 직위가 이사회의 다른 직책에 중요한 영향을 미친다 하지만 내가 말했듯이 그건 사실이 아니야

이미징 시퀀스의 경우, 가장 성공적인 이미지 및 시퀀스 모델 조밀 한 신경망을 사용하지 마십시오 따라서 이미지의 경우 실제로 컨벌루션 신경망 컨볼 루션 네트워크는이 속성을 기반으로합니다 인접한 픽셀이 더 중요하다는 것 멀리 떨어진 픽셀보다 따라서 모든 단일 픽셀을 연결하는 대신 입력 및 추가 또는 혼합 입력의 모든 픽셀마다 어떤 식 으로든 출력 (오디오 컷 아웃) 우리는 그것들을 결합하여 픽셀을 만든다 중간층 앤드류, 네가 조금 자른 것 같아

방금 말한 것을 반복 할 수 있니? 네가 자른 것 같아 모두들 당신의 말을들을 수있게하고 싶습니다 – 네 시원한 알았어, 카린에게 그걸 되풀이해라

컨볼 루션 네트워크에서 우리가하는 일은 컨볼 루션 커널과 그 컨볼 루션 커널 가까운 픽셀 만 보입니다 특정 픽셀로 보낼 수있는 픽셀 그런 다음 함께 연결합니다 값을 고려하지 않습니다 멀리있는 픽셀 수 그래서 우리는 실제로 이러한 조밀 한 신경망을 사용하지 않습니다 이미지로, 우리는이 길쌈 신경 네트워크를 사용합니다

그들은 그 기대에 부응했습니다 에 인접한 (오디오가 잘리는) 우리는 재발 성 신경 네트워크와 비슷한 일을한다 시퀀스와 재발을 다루기 위해 신경 네트워크는 나 앞에 오는 아이템을 만든다 목록에서 항목보다 훨씬 관련성이 높음 멀리 떨어져 있습니다 그래서 이것을 바탕으로 그래프에 대해 어떻게 생각해야합니까? 그래프와 고밀도 신경망을 살펴보면, 밀도가 높은 네트워크 그래프의 속성을 포함하지 않습니다

우리가 원하는 것은 가까운 것입니다 그래프에서 서로에게 더 많은 효과를주기 위해 그래프에서 멀리 떨어져있는 것보다 서로에 대해 그러나 이것은 조밀 한 네트워크에 내장 된 것이 아닙니다 따라서 우리는 (오디오가 끊어지는) 작업을 기대해서는 안되며, 유지 관리하는 신경망 모델이 아닙니다 그래프의 프라이어들은이 속성을 유지한다 서로 가까이있는 것들 서로에 더 많은 영향을 미침 멀리 떨어져있는 것보다

그래프의 문제점은 실제로 변수 구조 따라서 이미지와 시퀀스는 완전히 동일한 구조를가집니다 매번 그래프는 다른 구조를 가질 것입니다 또는 가변 구조물, 고정 된 스키마가 있다고하더라도 따라서 AI의 문제는 단순히 그래프를 벡터로 바꾼다 그래서 우리는 치밀한 신경 네트워크를 통해 그것을 넣을 수 있습니까? 우리가 어떻게 신경망 구조를 생각해 내는가? 그래프를보다 효과적으로 이해할 수 있습니까? (오디오 컷 아웃) 또는 이러한 의미 또는 지식 그래프 더 많은 데이터베이스 그래프가 그렇듯이

그래서, (오디오는 컷 아웃) 편견 그래서 문구에 넣으려면 어떻게 구조화 할 수 있을까요? 신경 구조는 그래프 구조 사전을 유지하기 위해? 그래서 저는 유일한 사람이 아닙니다 우리는 Octavia에 있습니다 이것에 대해 생각하는 유일한 사람들은 아닙니다 제 아이디어는 최근 논문입니다

우리가이 논문을 읽기 전에 많은 작업을했습니다 이 신문을 읽을 때, 우리는 마치 우와 같은 사람들 이었어 (오디오 컷 아웃) 우리가 할 수있는 것보다 훨씬 낫다 그래서, 나는 바이어스를 장려 할 것입니다 DeepMind 팀의 심층 학습 및 그래프 네트워크 에딘버러 대학교

그래서이 신문은 많은 읽을 거리가 있습니다 나는 약 5 ~ 6 번 읽었을 것이라고 생각한다 나는 아직도 물건을 꺼내고있다 그러나 나는 너희들을 위해서 그걸 빼내고 싶었다 그래서, 그 종이가 표현하는 것들 중 하나는 그래프 처리를위한이 모델은, 그리고 이것들은 유일하게 방정식입니다

이 프리젠 테이션에서, Y가 MX와 C를 더한 것 이외에, 그래서 이것보다 더 힘들지는 않습니다 그리고 더 쉬워 질거야 그래프 처리를 위해이 알고리즘을 제안했습니다 첫 번째 단계 인 가장자리 업데이트는 모든 가장자리 연결된 노드를 기반으로 업데이트됩니다 및 글로벌 상태

알고리즘의 두 번째 단계는 모든 노드를 업데이트하는 것입니다 연결된 모서리의 값을 기반으로 마지막 상태는 전체 그래프를 취하는 것입니다 모든 노드와 모든 가장자리 우리는 글로벌 상태를 업데이트하고 이것을 수행하기 위해, 우리는 6 개의 함수를 정의한다 : 에지 변환을위한 하나의 기능, 모든 것들을 모으기위한 하나의 기능 가장자리에 붙어있는, 변형을위한 하나의 함수 노드, 및 노드들을 집합시키는 하나의 함수 및 (오디오 컷 아웃) 모든 (오디오 컷 아웃) 이 6 가지 기능과이 알고리즘으로, 그 논문은 우리가 다양한 기존 그래프 알고리즘 그들은 아무것도 할 필요가 없다 신경 네트워크를 포함하면 알고리즘이 될 수 있지만, 페이지 순위 또는 너비 우선 검색과 같은 그들은 방금 프레임 워크로 제안했습니다 그래프 계산을하기 위해, 그러나 그들이 우리가 만들어야한다면 말을 계속합니다

이러한 기능 신경 네트워크, 또는 그 중 일부는 신경망 일 수 있습니다 그들 중 일부는 일종의 정체성 기능 일 수 있습니다 그라디언트를 사용하여 이러한 기능을 훈련 할 수 있습니다 (오디오 컷 아웃) 함수를 학습하는 완전히 훈련 가능한 메커니즘 어떤 목표를 향해 그래프를 변형 시키는데 필요합니다 이를 위해, 잘하면, (오디오가 잘리지 않음) 내가 제안하고있는 아이디어는 우리가 우리가 메모리를 다루는 특정 그래프 그리고 우리는 신경 네트워크 함수의 일부 컬렉션을 사용합니다 배울 수있는, 그래프를 메모리로 변환 할 수있는 결국에는 결과물을 얻게됩니다

그것은 변형 된 사람으로부터 정보를 읽는 것입니다 (오디오 컷 아웃) 그것이 우리가해야한다고 생각하는 접근 방식입니다 – 우리가 너를 반복해야 할지도 몰라 한 조각 다시 내가 인터넷을 생각하기 때문에 다시 절단했다 – 오케이, 미안해

이것을 보는 더 간단한 방법은 우리는 당신이 그래프를 찍는 것을 제안합니다 당신은 그것을 어떤 애플리케이션 내부의 메모리에로드한다

그래프를 변형 할 수 있습니다 일련의 단계와 각각의 변환에서 일부 신경 네트워크에 의해 수행되고있다 또는 신경망 기능들의 조합 엔드 투 엔드 트레이닝 가능 그리고 결국, (오디오가 끊어짐) 이 그래프에서 생각할 수 있습니다 메모리 네트워크 설정 그래서 우리는 그래프를 벡터로 변형하지 않습니다

나는 어떤 과정을 거치고있다 실제로 그래프를 대화 형으로 업데이트하고 있습니다 신경 네트워크 기능 모음 그래서, 그것이 우리가 생각하는 접근 방식입니다 이 구조적 그래프의 그래프에 DeepMind가 제안한 접근 방식입니다 그 종이에

질문은, 우리의 경험으로는 효과가 있습니까? 그래서 (오디오가 끊어짐) 그것이 작동하는지 여부를 훈련하고 테스트 할 수 있습니다 그래서 우리는 CLEVR-Graph라는이 데이터 세트를 만들었습니다 데이터 세트에서 영감을 얻었습니다 (오디오가 잘립니다) 이미지 훈련 및 추론 프로세스에 사용됩니다 나는 우리가 어디에서 찾고 있었는지 이전에 보여 줬던 구의 색은 무엇입니까? 회색 큐브 왼쪽이나 그게 뭐든간에

이 작업은 CLEVR이라는 데이터 세트에서 시작됩니다 우리는 데이터 세트를 만들기 위해 그것에 영감을 받았습니다 이미지 기반이 아닌 그래프 기반 CLEVR-Graph라고 부릅니다 CLEVR-Graph로 구성되는 데이터 포인트는 10,000 개입니다 각각의 질문, 답변 및 그래프입니다

그리고이 그래프들은 각각 고유합니다 우리는 운송 네트워크에서 그것을 모델링했습니다 대략 London Underground Transport Network를 기반으로, 그러나 각 그래프는 다르며 종합적으로 생성됩니다 그 각각의 종합적으로 생성 된 그래프 효과적으로 유일하다 그것은 다른 역, 다른 라인, 그 역과 선의 다른 조직, 질문을 샘플링 한 경우 약 20 개가 있습니다

(오디오 컷 아웃) 각 질문 유형마다 몇 가지 다른 문구가 있습니다 우리가 컴퓨터로 생성 한 그런 다음 다른 대답이 있습니다 따라서이 데이터 세트에서 우리는 이 독특한 그래프와 (오디오 컷 아웃) 우리가 아니라는 것을 이해하는 것이 중요합니다 신경망을 훈련하여 해답을 외운다 특정 그래프에서

우리는 실제로 그것을 동적 그래프를 다루기 위해 훈련하고 있습니다 그것은 전에 결코 볼 수 없었고 대답을 찾아 냈습니다 스키마가 수정되면 주어진다 여기 그래프 네트워크 중 하나의 예제가 있습니다 이는 CLEVR-Graph에 의해 생성됩니다

그래서, 당신은 이것이 섹션의 종류임을 알 수 있습니다 전송 그래프로부터 (오디오 컷 아웃) 포함 된 질문의 예 나에게 특히 흥미로운 질문은 여기에있다 예를 들어, 질문 (오디오 컷 아웃) (크로스 토크) 앤드류, 니가있을 때 조금 잘라 버렸어

어떤 질문이 흥미로운 지 설명합니다 다시 그 비트를 반복해야 할 것입니다 그래,이 질문들 내에서 내가 재미 있다고 생각하는, 방송국 인접성 (오디오 컷 아웃) 아키텍처 스테이션의 일종은 역에 인접 해있다 잠재적으로 여러 단계의 추론이 필요합니다

어떤 역이 역에 인접 해 있는지 찾아야한다 주어진 특정 속성이 필요합니다 주어진 노드에 부착 된 여러 노드에서 그리고 그들의 속성을보고 존재하는 방송국이 있는지 여부 또한 꽤 흥미로운 질문이었습니다 그래서, 옥스퍼드 서커스라는 역이 있습니까? 그 특별한 존재에 존재하지 않을 수도 있기 때문에, 그 질문은 매우 흥미 롭습니다

사건을 다루지 않는 신경 문제가 많기 때문에 그들의 대답은 존재하지 않습니다 예를 들어 이미지 분류를 할 때, 일반적으로 모든 이미지에는 무언가가 들어 있습니다 당신이 분류 할 수있는 (오디오 컷 아웃) 이미지 및 단지 화이트 노이즈 또는 빈 공간으로 교육 이 질문들은 서로 다른 기술들이 혼합되어 있어야합니다 우리의 그래프 추론 엔진에서

이러한 기술에는 노드 계산, 에지 계산, 노드에서 속성 읽기, 당신을 필요로하는 이러한 다단계 추론 그래프를 탐색하려면 최단 경로를 찾으십시오 두 노드 사이에서, 또는 사실을 결합하기 위해, 그래프에서 데이터를 결합하거나 비교할 수 있습니다 그래서, 이것이 우리가 우리의 아키텍처로하는 방법입니다 CLEVR-Graph에 대한 교육 및 테스트 합성 데이터이기 때문에 볼 수 있습니다 우리는이 질문들에 대해 거의 100 % 일단 우리가 올바른 아키텍처를 달성했다

그래서, 여기서 우리가 한 것은 우리가 그들을 분리 시켰습니다 다른 기술이 필요한 질문으로 첫 번째 기술 세트는 단지보아야합니다 업 속성을 노드, 그리고 나서 우리는 더 복잡한 것들로 나아 간다 그래서, 다음 방송국 인접 방송, 노드와 에지를 모두 관찰해야하며, 우리는 노드, 그 속성과 가장자리를 볼 필요가 있습니다 그리고 우리는 몇 개의 역 한 역과 다른 역 사이에 있습니까? 네트워크에 대한 학습이 필요합니다

Dijkstra의 알고리즘을 수행하는 방법, 두 점 사이의 최단 경로 찾기 우리는 아직 98 %의 정확도를 얻고 있음을 알 수 있습니다 Dijkstra의 알고리즘을 사용하면 98 %의 정확도를 얻게됩니다 최대 9 홉 거리의 스테이션에서 내가 말하는 존재 의문들도있다 다른 이유로 도전하고 있습니다

그런 다음이 질문을 볼 수 있습니다 우리는 아직 네트워크를 테스트하지 않았습니다 따라서 이것은 진행중인 작업입니다 그러나 우리가 이것을 볼 때마다 우리는 일합니다 다른 일련의 질문들, 이전 질문에 대한 실적을 유지하고 있습니다

그래프에 더 많은 능력을 추가 할 수 있습니다 (오디오 컷 아웃) 그래서, 그것은 작동합니까? 나는 우리가 달성 할 수 있음을 보여 주었으면 좋겠다 꽤 좋은 수준의 성공 (오디오가 끊어짐) 다양한 문제의 범위 저는이 모든 것을 끝내고 있습니다 그래서 신경 네트워크는 입력으로 얻는다 영어 텍스트와 고유 그래프 이 훈련 결과는 그래프로 표시됩니다

네트워크가 훈련되지 않았 음을 나타냅니다 그래서, 전에는 그 그래프를 보지 못했습니다, 그것은 단지 그래프의 스키마에 대한 교육을 받았기 때문에, 그들이 방송국이라는 사실, 그들은 특정 속성 집합을 가지고 있습니다 특정 속성을 가진 가장자리가 있습니다 그것들은 그 방송국을 연결합니다 그래서 우리는이 접근 방식이 훨씬 더 나은 결과를 보여주고있다

이전의 깊은 학습보다 그래프 접근법에서,하지만 우리는 전체 집합을 가지고 있지 않다 아직 당신을 보여줍니다 그래서, 그것은 작동합니까? 유망하지만 나는 확실히 말할 수 없다 그러나 그것이 어떻게 작동하는지 조금 이야기 해 봅시다 그래서, 나는 약 8 분이 걸렸다 고 생각한다

그게 옳은 방향이어야합니다 그래서, 우리가 되풀이해야 할 질문들 : 우리는 그래프를 가지고 있습니다, 우리는 영어 질문을 가지고 있습니다, 그리고 우리는 대답을 얻었습니다 숫자이거나 방송국 중 하나입니다 또는 그래프의 선 그래프 네트워크 알고리즘은 우리에게 방법을 주었다

정보를 전파하기 위해 그리고 위대한 그래프를 변환, 우리는 또한 우리의 질문을 공식으로 가져와야합니다 우리는 특정 쿼리에 응답하기 위해 그래프를 준비해야합니다 우리가 같은 그래프를 가질 수 있기 때문에, 그러나 다른 질문 그래서, 말하기 대신, 얼마나 많은 방송국이 은행과 사원? 옥스퍼드 서커스라고하는 역이 있을까요? 아니면 은행에 철도 연결이 있습니까? 그래프를 가져와 프라임 처리해야합니다 또는 어떻게 든 그 질문에 대답하기 위해 뉴럴 네트워크를 준비하십시오

그래서 DeepMind는 우리가 어떻게 구조화 할 수 있는지에 대한 큰 도움을주었습니다 그래프 사전들을 유지하는 신경망, 그래프를 프라임하는 법을 이해하지 못했습니다 우리가 스스로 설정 한 과제 인 질문에 대답합니다 그래서 우리는 다른 연구를 보았습니다 이 논문은 정말 두드러진다

정말 많은 일의 기초입니다 그 순간 깊은 학습에서, 이것은 주목 셀 (Attention Cell)이라고 불리는이 새로운 셀을 소개했습니다 그것은 큰 영향을 미쳤습니다 예를 들어, MAC 이미지 연구에 사용 된 네트워크에서 내가 보여준 MAC NET 이미지 추론 나는 이전에 보여줬다 그래서 이번에는이주의 셀 (Attention Cell) 근본적으로 다른 빌딩 블록 깊은 층에서 신경 네트워크에 대한 이 문제를 해결하기 위해이 방법을 사용할 수 있습니다

어떻게 그래프를 프라임 할 것인가? 또한 우리가 읽는 방법의 문제를 해결하기 위해 밖으로 그래프에서? 그래서 주목 셀이 작동하는 방식은 우리에게 질의를 취한 다음 목록을 가져 오려면 요소의 잠재적 인 가변 크기 목록, 해당 쿼리에 대해 각 요소에 점수를 매기십시오 따라서 이러한 내장 된 질문 토큰은이 경우, 토큰은 질문의 단어입니다 노드의 목록 일 수도 있지만, 가장자리 목록 일 수 있습니다 또는 에지 및 노드의리스트 일 수 있으며, 쿼리를 가져와 점수를 매겼습니다 각 항목에 대해 그런 다음 소프트 MAC을 사용하여 점수를 변환합니다

확률 분포로 그리고 우리는 무게 그들이 얻은 점수에 따른 입력 항목 소프트 맥에서의 표준화 이후, 그리고 우리는 그것들을 모두 모은다 고정 된 출력을 가지고 있으므로 신호를 제어합니다 그래서, 이것의 한 가지 이점은 우리에게 가변 길이 목록 가져 오기, 노드 목록이나 모서리 목록과 같이 이를 고정 된 크기의 신호로 변환합니다 주의가 실제로 사용되었습니다 혁신적인 획기적인 개선 자연 언어 처리 및 단어 삽입과 같이, 뿐만 아니라 다단계 추론 및 이해, 예를 들어, 그래프가보고있는 것

이 점수를 살펴보면 이전에 보여 줬던 그 이미지들은 당신에게 보여 줬어 신경망이 무엇을보고있는 것처럼 보였습니다 그래서 우리는이주의 셀들을 사용할 것입니다 우리가 그래프로 사용하는 방법 그래프에 신호를 쓰는 데 사용하는 것입니다 우리가받은 쿼리를 기반으로합니다

그래서 쿼리는 얼마나 많은 정지 점이 있는지입니다 성전과 은행 사이에? 그런 다음이 쿼리는주의 셀과 함께 사용됩니다 그래프의 모든 단일 노드를보고 있습니다 모든 단일 노드와 모든 단일 에지 일 수 있습니다 또는 그것은 모든 가장자리 일 수 있습니다

그러나 우리의 구현에서는 노드를 보았습니다 각 노드의 점수에 따라, 상기 질의와 관련하여, 우리는 그 노드에 가중 된 입력 신호를 준다 템플과 뱅크에 관한 질문을한다면, 그 방송국이 더 관련성이 있음이 분명하다 그 이름이없는 방송국들보다 그 질문에 우리는 그들이 같은 입력을 기대하지 않을 것이다 이주의에서

따라서이 접근법을 사용하여 그래프에 신호를 전달합니다 프라임하고 질문에 대해 차를 만들 우리가 다루고있는 것, 그리고 나서 우리가 할 수있는 것 우리는 그래프를 통해 정보를 전파 할 수 있습니까? 메시지 분석과 함께 우리가 가진 도전 그래프에서 해답을 읽는 방법은 무엇입니까? (오디오 컷 아웃) 질문에 대한 대답 인 노드 또는 질문에 대한 대답 인 번호를 꺼내십시오 또는 역의 이름, 그것이 무엇이든, 우리는 그 점에 대해서도주의를 사용할 수 있습니다 그래서 우리는 그래프를 읽기 위해주의를 사용합니다 다시 쿼리를 가져 와서 알아 내려고 그래프의 어느 노드에 정보가 포함되어 있는가? 쿼리에 응답하는 것과 관련이 있습니다

그래서, 우리는 그것들을 모두 합치면됩니다 (오디오가 끊어짐) 우리는 MAC-Graph라고 부릅니다 저기 소리가 나네 앤드류, 네가있는 곳을 바로 잘라 냈어 이것을 MAC-Graph라고 부르며, 너 자신을 다시 반복 할 수 있다면

그래, 우리는이 MAC-Graph라고 부른다 이것은 아키텍처의 정말 높은 수준의 견해입니다 더 많은 정보가 있습니다 우리의 GitHub 저장소 제가 말했듯이 우리의 모든 일은 오픈 소스입니다 그러나 2 만 피트 (오디오 컷 아웃) 우리는주의를 사용하여 그래프에 신호를 보냅니다

(오디오 컷 아웃) 그래프를 보내도록 전달하는 메시지 (오디오가 잘리지 않음) 매번 학습하는 신경망 기능 사용 그들이 어떻게 운영되어야하는지 정보를 읽으 려 할 때주의를 기울이고 있습니다 그래프에서 다시 이것이 우리가 사용하고있는 아키텍처입니다 해당 범위에서 결과를 얻으려면 보이지 않는 그래프에 대한 질문 응답 작업 그래서 우리가 달성 할 수 있었던 것은 신경 네트워크입니다 그라디언트와 함께 훈련 할 수있는 모델 특정 그래프 스키마를 탐색하는 방법을 배웠고, 그 그래프 스키마로, 대답을위한 여러 알고리즘 배우기 여러 가지 질문 우리는 엔드 투 엔드 (end-to-end) 교육을 통해이를 수행하고 있습니다 그래서 우리는 우리가 그것을 할 수 있기를 원하는 것에 훈련시키고 있습니다

정확한 작업, 그리고 그 훈련은 질문처럼 보입니다 대답과 우리가 당신이 처리하기를 원하는 그래프, 우리는 하나의 모델을 선택할 수 있다는 것을 보여주었습니다 및 건축술 그리고 범위를 배울 수 있습니다 다른 그래프 알고리즘들 다른 문제를 해결하기 위해, 맞죠? 우리는 Dijkstra의 알고리즘을 가지고 있습니다 우리는 독서 속성을 가지고 있습니다 오프 노드를 가지고 있고, 우리는 폭 넓은 우선 탐색을 가지고있다

주어진 재산에 인접한 사람을 찾는다 우리는 그것이 정말로 유망하다고 생각합니다 그리고 더 많은 것이 있습니다 (오디오가 잘려나갑니다) 우리는이 접근법이 확실히 배울 수 있다는 것을 보여주었습니다 그래프 특정 알고리즘

(오디오 컷 아웃) 그리고 우리는 이것을 계속 연구하기를 희망합니다 우리가 한 접근 방식을 사용하면, 합성 데이터 세트를 만들고있다 그 합성 데이터 세트를 사용하여 신경 네트워크와 그것이 작동하는 방법을 이해하는 작업 성능을 향상시킬 수 있습니다 우리가 이길 수 있어야합니다 그래서, 그것이 우리가 Octavian에서 오늘하는 곳입니다

관심있는 사람을 초대합니다 와서 참여할 수 있습니다 당신은 우리에게 이메일을 보내거나, 우리를 트윗 할 수 있습니다 그리고 당신은 GitHub에 숨어 있다는 것을 확인할 수 있습니다, 우리는 항상 더 많은 사람들을 참여시키는 데 관심이 있습니다 이 연구에서, 그리고 새로운 문제를 발견하기 위해 우리는 우리가 그것을 적용 할 수있을 것이라고 생각합니다

그래서 그걸로 마크에게 넘겨 주겠다고 생각합니다 질문이 있으면 – 어 그래 우리는 몇 가지 질문을했습니다 Mark Kristoff가 권장 사항이 있는지 물었습니다

누군가를 도울 수있는 학습 자료 자료를 더 잘 이해할 수 있습니다 David Mac은 이미 채팅에서 응답했으며, Octavian blog와 DeepLearning book에 대해 말하면서, 하지만 다른 제안이 있다면 또는 탐험의 여정 중 일부에 있을까요? 그래, 그럼 (오디오가 잘리지 않는다) 스위치 네 – 엔드 루프 사용자입니다 – 그래서, 그 기사 중 일부를 읽는 것은 정말 대단합니다

특히 저는 DeepMind 논문의 큰 팬입니다 그래프 세이지 (Graph Sage)라는 것이 있습니다 스탠포드의 네트워크 그룹에 정말 좋은 기사와 논문 그것은 정말로 나의 여정이 어떻게 이루어 졌는지입니다 그 자료를 읽는 것뿐만 아니라, 자신에게 정말로 간단한 문제를 제공합니다

너는 취할 수있는 무언가를 훈련 할 수 있니? 숫자 목록 (예 : Attention을 사용하여 목록에서 번호를 선택하십시오 매우 간단한 문제를 만들 수 있습니다 이 동일한 기술을 그들에게 적용하십시오 – 좋았어 빅터 리의 또 다른 질문이 있습니다

그는 이렇게 물었습니다 그래서 일반적인 계산 모델에서, 각 반복마다 모든 가장자리와 모든 꼭지점 업데이트 되나요? 물음표 Neo4J에서 정말 실용적입니까? – 그래서 모델이 작동하는 방식입니다 우리가 전체 그래프를 여러 번 변형한다는 것입니다 우리는 Neo4J를 사용하지 않습니다

우리는 TensorFlow를 사용하여 오디오를 잘라냅니다 Neo4J를 사용하는 것이 실용적인 것이 든 아니든, 우리가 JVM 내부에서 실행한다면, 그러면 실용적이라고 생각합니다 우리가 Neo4J 내부를 돌고 있다고 말하면, 내 믿음은 그럴 것입니다 Neo4J 외부에서, 조금 더 어려울 수 있습니다, 속도와 병렬성에 달려있다 우리가 지원할 수있는, 잠재적으로 이들은 초강력 알고리즘입니다

오, 너 끝날 무렵 조금 잘라 버렸어 잠재적으로, 이들은 실제로 마비 될 수 있습니다 그래서 당신은 단지 많은 동시 업데이트를 보내고 있습니다 그래프 및 동시 읽기, 이는 Neo4J에서 그리 어려운 작업이 아닙니다 – [Karin] 굉장해

누군가 다른 질문이 있다면 이 행 아웃이 끝나면 Neo4J 커뮤니티 사이트에서 질문 할 수 있습니다 YouTube 설명에 대한 링크가 있습니다 아이디어가 있으면 게시 할 수도 있습니다 네가 다음에 대해 이야기하고 싶은 말의 프로젝트 또는 콘텐츠 카테고리의 온라인 모임, 프로젝트라면 프로젝트 카테고리에 넣을 수 있습니다 그리고 또 다른 것이 있니, 앤드류, 전에 언급하고 싶은게

사람들이 할 수있는 곳 Octavian 블로그를 제외하고, 좋은 사람이 있다면 그게 좋을까요? – 아니 내 말은, Neo4J 커뮤니티를 제외하고 옥타 비안 블로그는 훌륭한 장소입니다 질문을합니다 – [Karin] 우리는 또 다른 질문이 있습니다 그게 흥미 롭군요

Robert Shinuzu 내가 잘못 지시하면 미안해 그는 Neo4J를 모델로 사용하는지 물어 보았습니다 모델 훈련? Athl은 여러 수준 – 성장과 공유 – [카린] 너는 실제로 그 채팅을 보나요? 왜냐하면이 질문을 실제로 볼 수도 있기 때문입니다

아마 여기에 뭔가가있을거야 재미있을거야 – 내가 그 채팅을 볼 것 같지 않아 (크로스 토크) 네, 그래서 우리는 Neo4J를 사용하지 않습니다 우리가하고있는 이런 것들, 우리는 실험하고있어

신경 네트워크를 변경하고 조정하는 방법 모든 종류의 측면을 변경합니다 우리는 TensorFlow의 메모리에서 작업하고 있습니다 저장 및 공유를 위해 Neo4J를 사용합니다 및 그래프, 우리는이 둘의 시너지를 가져올 수 있기를 희망합니다 우리가 합성 문제에 종사하지 않을 때

따라서 실제 세계 데이터를 작업하는 경우 트랜잭션이고 저장되고있다 어떤 중요성을 가지고 있다면, 나는 우리가 데이터베이스를 훨씬 더 다룰 필요가 있습니다 – [카린] 많은 사람들이 정말로 이야기가 마음에 들었다 모두들, 앤디의 이야기를 정말로 즐긴다면, 토크쇼에 엄지 손가락을 올려주세요 다른 질문이 있습니다

산티아고 곤잘레스가 묻습니다, 기술을 적용 해 봤나? 당신은 서브 그래프 유사성을 계산하기 위해 여기서 설명 했습니까? – 다시 말해 줄 수있어, 카린? 그가 말했듯이, 당신은 기술을 적용 했습니까? 당신은 서브 그래프 유사성을 계산하기 위해 여기서 설명 했습니까? 좋아, 나는 소리가 조금 자른 것 같아 – 내가 채팅을 찾을 수 있는지 보겠다 내가 채팅을 찾고 텍스트로 회신 할 수 있는지, 하지만 나는 인터넷 신들이 (오디오 컷 아웃) 그래, 누군가 다른 질문이 있다면 네가 물어보고 싶어, 너 분명히 갈 수있어 우리의 커뮤니티 사이트 Andy가 실제로 스레드를 게시하고 말할 수 있습니다

직접 그에게 질문하면 거기에 질문 할 수 있습니다 그리고 그것은 다른 사람들에게 가치있는 것이 될 것입니다 사실 이후에도 우리는 다음 주에도 이야기를 나눕니다 11 월 21 일 수요일,이 시간과 동시에, 유사성 그래프 알고리즘에 적용될 것입니다

그래서 그것은 재미 있어야합니다 네 그래서 우리는 아마 쇼의 끝이라고 부를 수 있다고 생각합니다 앤디, 시간을내어 주셔서 정말 고마워요 우리에게 이것을 보여줍니다

모두들 즐거웠기를 바랍니다 바라건대 우리는 다음 주에 너희들을 볼거야 – 천만에요 다음에 봐 – 안녕