<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
    <channel>
      <title>문지원의 AI 공부 노트</title>
      <link>https://ziwonmoon.github.io/ai-knowledge-web</link>
      <description>최근 10 건 on 문지원의 AI 공부 노트</description>
      <generator>Quartz -- quartz.jzhao.xyz</generator>
      <item>
    <title>Word Embedding</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Word-Embedding</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Word-Embedding</guid>
    <description><![CDATA[ 개요 단어를 밀집 벡터의 형태로 표현하는 방법. 이 방법으로 나온 결과를 임베딩 벡터라고 한다. 워드 임베딩 방법론으로는 LSA, Word2Vec, FastText, Glove등이 있다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Word Representation</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Word-Representation</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Word-Representation</guid>
    <description><![CDATA[ 개요 단어의 표현 방법은 크게 국소 표현(Local Representation) 방법과 분산 표현 (Distributed Representation) 방법으로 나뉜다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Word2Vec</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Word2Vec</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Word2Vec</guid>
    <description><![CDATA[ 개요 분산 표현을 위한 학습 방법 CBOW와 Skip-Gram 두 가지 방식이 있다. Negative Sampling 대체적으로 Word2Vec을 사용한다고 하면 SGNS(Skip-Gram with Negative Sampling)을 사용한다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>in ..</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/in-..</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/in-..</guid>
    <description><![CDATA[ TF-IDF에서 나온 코드 for doc in docs: df += t in docs df += t in docs는 도데체 뭔가? 할당보다 in 이 먼저 계산되는 연산자. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>torch.nn.CrossEntropyLoss()</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/torch.nn.CrossEntropyLoss()</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/torch.nn.CrossEntropyLoss()</guid>
    <description><![CDATA[ 손실 함수이나 자체로 소프트맥스 함수가 추가되어 있어 모델에서 구현할 필요 없음. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Distributed Representation</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Distributed-Representation</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Distributed-Representation</guid>
    <description><![CDATA[ 개요 희소 표현은 각 단어간 유사성을 표현할 수 없다는 단점이 있었다. 이를 위한 대안으로 단어의 의미를 다차원 공간에 벡터화하는 방법을 찾게되는데, 이러한 표현 방법을 분산 표현이라고 한다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Document-Term Matrix</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Document-Term-Matrix</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Document-Term-Matrix</guid>
    <description><![CDATA[ 개요 서로 다른 문서들의 BoW들을 결합한 표현 방법. 행과 열을 반대로 선택하면 TDM이라고 부르기도 한다. 문서 단어 행렬(Document-Term Matrix, DTM)이란 다수의 문서에서 등장하는 각 단어들으리 빈도를 행렬로 표현한 것을 말한다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Euclidean Distance</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Euclidean-Distance</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Euclidean-Distance</guid>
    <description><![CDATA[ 개요 문서의 유사도를 구하기 위한 방법 중 하나. 유클리드 거리는 문사의 유사도를 구할 때 자카드 유사도나 코사인 유사도만큼, 유용한 방법은 아니다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Global Average Pooling</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Global-Average-Pooling</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Global-Average-Pooling</guid>
    <description><![CDATA[ 각 Feature Map의 모든 값을 평균하여 채널당 하나의 값으로 요약하는 풀링연산 H \times W \times C \rightarrow 1 \times 1 \times C 직관적으로, 각 특성 맵이 이미지 전체에서 얼마나 강하게 활성화되었는지를 하나의 값으로 요약한다. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item><item>
    <title>Jaccard Similarity</title>
    <link>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Jaccard-Similarity</link>
    <guid>https://ziwonmoon.github.io/ai-knowledge-web/Concepts/%EB%AC%B8%EC%84%9C/Jaccard-Similarity</guid>
    <description><![CDATA[ J(A,B) = \frac{|A\cap B|}{|A\cup B|}=\frac{|A\cap B|}{|A|+|B|-|A\cap B|} 합집합분의 교집합. ]]></description>
    <pubDate>Sun, 15 Mar 2026 06:37:28 GMT</pubDate>
  </item>
    </channel>
  </rss>