diff --git a/docs_ko/get_started/introduction.rst b/docs_ko/get_started/introduction.rst
index 12c9a1ed9284f5984dd4a5079419001496ce791b..aae6fae6a6122487eb238522560bc9be10a13f54 100644
--- a/docs_ko/get_started/introduction.rst
+++ b/docs_ko/get_started/introduction.rst
@@ -272,7 +272,7 @@
 
 .. math::
 
-    $\mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top}$
+    \mathrm{batch} = {\begin{bmatrix} 0 & \cdots & 0 & 1 & \cdots & n - 2 & n -1 & \cdots & n - 1 \end{bmatrix}}^{\top}
 
 이것은, 예를 들어 각 그래프에 속한 노드들의 특징(feature)을 노드 차원에서 평균화하는 데 사용할 수 있습니다:
 
@@ -296,7 +296,7 @@
         x.size()
         >>> torch.Size([32, 21])
 
-`여기 <../advanced/batching.html>`__ 서 `PyG`의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. 
+`여기 <../advanced/batching.html>`__ 서 `PyG` 의 내부 배치 처리 기법(예: 배치의 동작을 수정하는 방법)에 대해 더 자세히 알아볼 수 있습니다. 
 scatter 연산에 대해 관심 있는 독자분들은 `torch_scatter` `documentation <https://pytorch-scatter.readthedocs.io>`_ 를 참조하시기 바랍니다.
 
 Data Transforms