diff --git a/docs_ko/get_started/introduction.rst b/docs_ko/get_started/introduction.rst index c8ca8c1f8a45abc2d753c50062ba8685daeb134b..12c9a1ed9284f5984dd4a5079419001496ce791b 100644 --- a/docs_ko/get_started/introduction.rst +++ b/docs_ko/get_started/introduction.rst @@ -231,26 +231,24 @@ data.test_mask.sum().item() >>> 1000 -This time, the :class:`~torch_geometric.data.Data` objects holds a label for each node, and additional node-level attributes: :obj:`train_mask`, :obj:`val_mask` and :obj:`test_mask`, where -이번에는, `~torch_geometric.data.Data` 클래스(class)의 객체에 각 노드의 레이블과 추가적인 노드 수준의 속성(attribute)인 `train_mask`, `val_mask`, `test_mask`가 있습니다: +이번에는, `~torch_geometric.data.Data` 클래스(class)의 객체에 각 노드의 레이블과 추가적인 노드 수준의 속성(attribute)인 `train_mask` , `val_mask` , `test_mask` 가 있습니다: -- `train_mask`는 훈련할 노드(140개 노드)를 나타냅니다, -- `val_mask`는 검증 단계(validation)에서, *예를 들어*, 조기 종료(early stopping)시키기 위해 사용할 노드(500개 노드)를 나타냅니다, -- `test_mask` 테스트할 노드(1000개 노드)를 나타냅니다. +- `train_mask` 는 훈련할 노드(140개 노드)를 나타냅니다, +- `val_mask` 는 검증 단계(validation)에서, *예를 들어*, 조기 종료(early stopping)시키기 위해 사용할 노드(500개 노드)를 나타냅니다, +- `test_mask` 는 테스트할 노드(1000개 노드)를 나타냅니다. 미니 배치(Mini-batches) ------------ -Neural networks are usually trained in a batch-wise fashion. 신경망(Neural network)은 주로 배치 별 학습 방식을 사용합니다. -`PyG` 희소 블록 대각 인접 행렬(sparse block diagonal adjacency matrix, `edge_index`로 정의됨)을 만들고 노드의 차원으로 특징(feature)과 타겟 행렬을 결합(concatenate)해서 미니 배치를 활용한 병렬화를 가능하게 합니다. +`PyG` 는 희소 블록 대각 인접 행렬(sparse block diagonal adjacency matrix, `edge_index`로 정의됨)을 만들고 노드의 차원으로 특징(feature)과 타겟 행렬을 결합(concatenate)해서 미니 배치를 활용한 병렬화를 가능하게 합니다. 이 구성에 따라 예제마다 하나의 배치당 노드 개수와 엣지 개수를 다르게 가져갈 수 있습니다: .. math:: \mathbf{A} = \begin{bmatrix} \mathbf{A}_1 & & \\ & \ddots & \\ & & \mathbf{A}_n \end{bmatrix}, \qquad \mathbf{X} = \begin{bmatrix} \mathbf{X}_1 \\ \vdots \\ \mathbf{X}_n \end{bmatrix}, \qquad \mathbf{Y} = \begin{bmatrix} \mathbf{Y}_1 \\ \vdots \\ \mathbf{Y}_n \end{bmatrix} -`PyG`는 이미 이러한 결합(concatenation) 프로세스를 처리하는 자체적인 `torch_geometric.loader.DataLoader` 클래스(class)를 가지고 있습니다. +`PyG` 는 이미 이러한 결합(concatenation) 프로세스를 처리하는 자체적인 `torch_geometric.loader.DataLoader` 클래스(class)를 가지고 있습니다. 예시를 통해 배워봅시다: .. code-block:: python @@ -268,13 +266,13 @@ Neural networks are usually trained in a batch-wise fashion. batch.num_graphs >>> 32 -`torch_geometric.data.Batch` 클래스(class)는 `torch_geometric.data.Data` 클래스(class)로부터 상속을 받으며 `batch`라는 추가적인 속성(attribute)을 갖습니다. +`torch_geometric.data.Batch` 클래스(class)는 `torch_geometric.data.Data` 클래스(class)로부터 상속을 받으며 `batch` 라는 추가적인 속성(attribute)을 갖습니다. -`batch`는 배치에서 각 노드를 그것이 속하는 그래프에 매핑하는 열 벡터입니다: +`batch` 는 배치에서 각 노드를 그것이 속하는 그래프에 매핑하는 열 벡터입니다: .. math:: - \mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top} + $\mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top}$ 이것은, 예를 들어 각 그래프에 속한 노드들의 특징(feature)을 노드 차원에서 평균화하는 데 사용할 수 있습니다: @@ -298,9 +296,7 @@ Neural networks are usually trained in a batch-wise fashion. x.size() >>> torch.Size([32, 21]) -You can learn more about the internal batching procedure of :pyg:`PyG`, *e.g.*, how to modify its behavior, `here <../advanced/batching.html>`__. `여기 <../advanced/batching.html>`__ 서 `PyG`의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. -For documentation of scatter operations, we refer the interested reader to the :obj:`torch_scatter` `documentation <https://pytorch-scatter.readthedocs.io>`_. scatter 연산에 대해 관심 있는 독자분들은 `torch_scatter` `documentation <https://pytorch-scatter.readthedocs.io>`_ 를 참조하시기 바랍니다. Data Transforms