diff --git a/docs_ko/get_started/introduction.rst b/docs_ko/get_started/introduction.rst
index ad8580cec3c74ee376a9bc5ac28afbad9bcd231e..42c6651f78bd67efbed287faacdad967e4d3e868 100644
--- a/docs_ko/get_started/introduction.rst
+++ b/docs_ko/get_started/introduction.rst
@@ -28,7 +28,7 @@
 *e.g.* `[3, num_faces]` 모양(shape)과 `torch.long` 타입을 갖는 텐서인 3D 메쉬로부터, 삼각형의 연결 상태를 저장하기 위한 `data.face` 로 확장도 가능합니다.
 
 .. Note::
-    `PyTorch` 와 `torchvision` 에서는 이미지와 타겟의 튜플로써 예시를 표기합니다.
+    :`PyTorch` 와 `torchvision` 에서는 이미지와 타겟의 튜플로써 예시를 표기합니다.
     저희는 다양한 데이터 구조를 명확하고 이해하기 쉬운 방식으로 표현하기 위해 이러한 표기법을 생략했습니다.
 
 3개의 노드와 4개의 엣지를 가진 가중치와 방향성이 없는 그래프로 간단한 예시를 보여드리겠습니다.
@@ -72,7 +72,7 @@
 비록 그래프가 두 개의 엣지만을 갖지만, 엣지의 양 방향을 모두 고려하면 4개의 인덱스 튜플을 정의해야 합니다.
 
 .. Note::
-    언제든지 데이터 객체를 프린트 해보거나 그것의 특징(feature)과 모양(shape)에 대한 간단한 정보를 확인해 볼 수 있습니다.
+    :언제든지 데이터 객체를 프린트 해보거나 그것의 특징(feature)과 모양(shape)에 대한 간단한 정보를 확인해 볼 수 있습니다.
 
 `edge_index` 의 요소는 반드시 `{0, ..., num_nodes - 1}` 범위 내의 인덱스를 가져야 한다는 점을 유의하십시오.
 이는 최종 데이터의 표현을 최대한 간단하게 만들고자 할 때, 예를 들어, 첫 번째 엣지 `(0, 1)` 의 시작 노드와 도착 노드의 특징(feature)을 각각 `x[0]` 과 `x[1]` 로 나타내기를 원할 때 필요합니다.
@@ -233,7 +233,7 @@
 
 이번에는, `~torch_geometric.data.Data` 클래스(class)의 객체에 각 노드의 레이블과 추가적인 노드 수준의 속성(attribute)인 `train_mask` , `val_mask` , `test_mask` 가 있습니다:
 
-- `train_mask` 는 훈련할 노드(140개 노드)를 나타냅니다,
+- `train_mask` 는 학습할 노드(140개 노드)를 나타냅니다,
 - `val_mask` 는 검증 단계(validation)에서, *예를 들어*, 조기 종료(early stopping)시키기 위해 사용할 노드(500개 노드)를 나타냅니다,
 - `test_mask` 는 테스트할 노드(1000개 노드)를 나타냅니다.
 
@@ -333,11 +333,11 @@ ShapeNet 데이터셋(17,000개의 3D 포인트 클라우드와 16개 모양 카
     >>> Data(edge_index=[2, 15108], pos=[2518, 3], y=[2518])
 
 .. note::
-    We use the :obj:`pre_transform` to convert the data before saving it to disk (leading to faster loading times).
-    Note that the next time the dataset is initialized it will already contain graph edges, even if you do not pass any transform.
-    If the :obj:`pre_transform` does not match with the one from the already processed dataset, you will be given a warning.
+    :데이터를 디스크에 저장하기 전에 `pre_transform` 을 사용하여 데이터를 전환합니다. (이렇게 하면 로딩 시간이 빨라집니다). 
+    다음에 데이터셋이 초기화될 때 변환(transform)을 적용하지 않아도 이미 그래프 엣지에 포함되어 있다는 사실을 유념하십시오.
+    만약 `pre_transform` 이 이미 처리된 데이터셋의 객체와 일치하지 않으면 경고가 표시됩니다.
 
-In addition, we can use the :obj:`transform` argument to randomly augment a :class:`~torch_geometric.data.Data` object, *e.g.*, translating each node position by a small number:
+또한, `transform` 인수를 사용하여, 각 노드의 위치를 조금씩 이동시키는 등 `~torch_geometric.data.Data` 객체를 무작위로 증강할 수 있습니다:
 
 .. code-block:: python
 
@@ -351,17 +351,17 @@ In addition, we can use the :obj:`transform` argument to randomly augment a :cla
     dataset[0]
     >>> Data(edge_index=[2, 15108], pos=[2518, 3], y=[2518])
 
-You can find a complete list of all implemented transforms at :mod:`torch_geometric.transforms`.
+구현된 모든 변환(transform)의 전체 목록은 `torch_geometric.transforms` 모듈에서 확인할 수 있습니다.
 
-Learning Methods on Graphs
+그래프에서의 학습 방식식
 --------------------------
 
-After learning about data handling, datasets, loader and transforms in :pyg:`PyG`, it's time to implement our first graph neural network!
+`PyG` 에서 데이터 처리, 데이터셋, 데이터 로더, 데이터 변환에 대해 배웠다면, 이제 드디어 첫 번째 그래프 신경망(graph neural network)를 구현해볼 차례입니다!
 
-We will use a simple GCN layer and replicate the experiments on the Cora citation dataset.
-For a high-level explanation on GCN, have a look at its `blog post <http://tkipf.github.io/graph-convolutional-networks/>`_.
+간단한 GCN 레이어를 사용하여 Cora 인용 데이터셋에서 실험을 재현해보겠습니다.
+GCN에 대한 자세한 설명은 GCN의 `블로그 <http://tkipf.github.io/graph-convolutional-networks/>`_ 를 참조하십시오.
 
-We first need to load the Cora dataset:
+먼저 Cora 데이터셋을 로드해야 합니다:
 
 .. code-block:: python
 
@@ -370,8 +370,8 @@ We first need to load the Cora dataset:
     dataset = Planetoid(root='/tmp/Cora', name='Cora')
     >>> Cora()
 
-Note that we do not need to use transforms or a dataloader.
-Now let's implement a two-layer GCN:
+변환(transform)이나 데이터셋을 사용할 필요는 없습니다.
+이제 2 레이어의 GCN을 구현해보겠습니다:
 
 .. code-block:: python
 
@@ -395,10 +395,10 @@ Now let's implement a two-layer GCN:
 
             return F.log_softmax(x, dim=1)
 
-The constructor defines two :class:`~torch_geometric.nn.conv.GCNConv` layers which get called in the forward pass of our network.
-Note that the non-linearity is not integrated in the :obj:`conv` calls and hence needs to be applied afterwards (something which is consistent across all operators in :pyg:`PyG`).
-Here, we chose to use ReLU as our intermediate non-linearity and finally output a softmax distribution over the number of classes.
-Let's train this model on the training nodes for 200 epochs:
+생성자(constructor)는 신경망의 순방향(forward) 패스에서 호출되는 `~torch_geometric.nn.conv.GCNConv` 레이어를 정의합니다.
+비선형성(non-linearity)은 `conv` 호출에 통합되어 있지 않으므로 나중에 적용해야하는 점을 유념하십시오.(이점은 `PyG` 의 모든 연산자에서 일관되게 적용됩니다.)
+여기서는 중간의 비선형성을 위해 ReLU를 사용하고 최종적으로 크래스 수에 대한 소프트맥스(softmax) 분포를 출력하기로 했습니다.
+이 모델을 200 에폭동안 학습노드에 대해서 학습시켜 봅시다:
 
 .. code-block:: python
 
@@ -415,7 +415,7 @@ Let's train this model on the training nodes for 200 epochs:
         loss.backward()
         optimizer.step()
 
-Finally, we can evaluate our model on the test nodes:
+드디어, 테스트 노드에서 우리의 모델을 평가해볼 수 있습니다:
 
 .. code-block:: python
 
@@ -426,18 +426,18 @@ Finally, we can evaluate our model on the test nodes:
     print(f'Accuracy: {acc:.4f}')
     >>> Accuracy: 0.8150
 
-This is all it takes to implement your first graph neural network.
-The easiest way to learn more about Graph Neural Networks is to study the examples in the :obj:`examples/` directory and to browse :mod:`torch_geometric.nn`.
+이것이 첫 번째 그래프 신경망을 구현하는 데 필요한 전부입니다.
+그래프 신경망에 대해 더 자세히 알아보는 가장 쉬운 방법은 `examples/` 디렉토리에서 예제를 공부해해보고 `torch_geometric.nn` 모듈을 살펴보는 것입니다.
 Happy hacking!
 
-Exercises
+예제
 ---------
 
-1. What does :obj:`edge_index.t().contiguous()` do?
+1. `edge_index.t().contiguous()` 는 무엇을 하는 것인가?
 
-2. Load the :obj:`"IMDB-BINARY"` dataset from the :class:`~torch_geometric.datasets.TUDataset` benchmark suite and randomly split it into 80%/10%/10% training, validation and test graphs.
+2. `~torch_geometric.datasets.TUDataset` 벤치마크 셋에서 `"IMDB-BINARY"` 데이터셋을 로드하고 80%/10%/10% 로 학습(train), 검증(valid) 및 테스트(test) 그래프로 무작위 분할(randomly split)하시오.
 
-3. What does each number of the following output mean?
+3. 다음 출력에서 각각의 숫자가 의미하는 바는 무엇인가?
 
    .. code-block:: python