diff --git a/docs_ko/get_started/introduction.rst b/docs_ko/get_started/introduction.rst index 12c9a1ed9284f5984dd4a5079419001496ce791b..aae6fae6a6122487eb238522560bc9be10a13f54 100644 --- a/docs_ko/get_started/introduction.rst +++ b/docs_ko/get_started/introduction.rst @@ -272,7 +272,7 @@ .. math:: - $\mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top}$ + \mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top} 이것은, 예를 들어 각 그래프에 속한 노드들의 특징(feature)을 노드 차원에서 평균화하는 데 사용할 수 있습니다: @@ -296,7 +296,7 @@ x.size() >>> torch.Size([32, 21]) -`여기 <../advanced/batching.html>`__ 서 `PyG`의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. +`여기 <../advanced/batching.html>`__ 서 `PyG` 의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. scatter 연산에 대해 관심 있는 독자분들은 `torch_scatter` `documentation <https://pytorch-scatter.readthedocs.io>`_ 를 참조하시기 바랍니다. Data Transforms