From 1f8822057a39ec08699e7031d3bbb0108227124f Mon Sep 17 00:00:00 2001 From: Chang-Uk Jeong <ukjung18@ajou.ac.kr> Date: Sat, 23 Dec 2023 18:40:43 +0900 Subject: [PATCH] Update introduction.rst --- docs_ko/get_started/introduction.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs_ko/get_started/introduction.rst b/docs_ko/get_started/introduction.rst index 12c9a1e..aae6fae 100644 --- a/docs_ko/get_started/introduction.rst +++ b/docs_ko/get_started/introduction.rst @@ -272,7 +272,7 @@ .. math:: - $\mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top}$ + \mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top} 이것은, 예를 들어 각 그래프에 속한 노드들의 특징(feature)을 노드 차원에서 평균화하는 데 사용할 수 있습니다: @@ -296,7 +296,7 @@ x.size() >>> torch.Size([32, 21]) -`여기 <../advanced/batching.html>`__ 서 `PyG`의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. +`여기 <../advanced/batching.html>`__ 서 `PyG` 의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. scatter 연산에 대해 관심 있는 독자분들은 `torch_scatter` `documentation <https://pytorch-scatter.readthedocs.io>`_ 를 참조하시기 바랍니다. Data Transforms -- GitLab