Comibear's Blog

Comibear's Blog

  • Home
  • About me
  • Blog
  • [Paper Review] – Neural Machine Translation by Jointly Learning to Align and Translate

    2024-06-04

    /

    comibear
    / AI

    https://raebimoc.notion.site/Neural-Machine-Translation-by-Jointly-Learning-to-Align-and-Translate-0315b8c0d93349119869679b3ce2b446

    Read More →: [Paper Review] – Neural Machine Translation by Jointly Learning to Align and Translate
  • [Paper Review] – Sequence to Sequence Learning with Neural Networks

    2024-06-04

    /

    comibear
    / AI

    https://raebimoc.notion.site/Sequence-to-Sequence-Learning-with-Neural-Networks-8a6978c1dbf24787835063f7f30b7b12

    Read More →: [Paper Review] – Sequence to Sequence Learning with Neural Networks
  • [Paper Review] – Efficient Estimation of Word Representations in Vector Space

    2024-05-28

    /

    comibear
    / 미분류

    https://raebimoc.notion.site/Efficient-Estimation-of-Word-Representations-in-Vector-Space-9080dac4c354438e9882edb3ee150c4e

    Read More →: [Paper Review] – Efficient Estimation of Word Representations in Vector Space
  • AI study – week 4

    2024-03-14

    /

    comibear
    / AI

    1. CNN 이번에는 CNN 에 대해서 알아볼 차례이다. NN (Neural Network) 은 지난 시간에 Spiral data 를 Classify 하기 위해서 사용했었는데, 간단히 정리해보자면 데이터가 입력계층, 은닉계층, 출력계층을 거치며 가중치에 따라 출력이 정해지게 되는 구조이다. (각각의 Class 가 될 확률을 출력) 물론 앞서 실습해보았던 $x, y$ 좌표에 따른 Class 는 Quantitative data 였기에, 별 고민 없이…

    Read More →: AI study – week 4
  • AI study – week 3

    2024-03-06

    /

    comibear
    / AI

    이번 포스팅은 ML 에 대한 다양한 개념들이 등장하기에 조금 난잡할 수도 있어 천천히 읽어주시면 감사하겠습니다..ㅎㅎ 저도 처음 공부하는지라 순서들이 뒤죽박죽일수도 있어 양해 부탁드립니다 !! 1. BGD의 한계 전 포스트에서 말했듯이, Gradient descent 에는 아래와 같이 크게 4가지 약점이 존재한다. (흔히 일반적인 GD 방식을 Batch Gradient Descent (BGD) 라고 부른다.) 차례대로 살펴보자. 1) 과도한 연산량 &…

    Read More →: AI study – week 3
  • AI study – week 2

    2024-03-04

    /

    comibear
    / AI

    1. Gradient Descent (경사하강법) 이번에는 Linear Regression 에 대해서 실습을 해보기로 하자. 지난번에는 단순히 경사하강법을 실습해보기 위하여 $y = x^2$ 라는 식을 두어 $(2, 4)$ 좌표에서 시작하여 함수의 min 값인 $(0, 0)$ 까지 기울기에 비례하여 움직임으로써 도달할 수 있었다. 이번에는 실제로 선형 회귀에서의 점들을 이용하여 $y = mx + b$ 에서의 $m$과 $b$ 를 기준으로…

    Read More →: AI study – week 2
  • AI study – week 1

    2024-02-26

    /

    comibear
    / AI

    1. Regression AI 개념 중 가장 기본이 되는 것은 regression, 즉 회귀 분석이다. 회귀의 뜻은 “다시 돌아온다” 라는 뜻으로, 결국 평균으로 돌아옴을 의미한다. 우리가 흔히 들어봤을 선형 회귀 분석은 여러 x, y 쌍들에 대하여 가장 오차가 적은 선형 그래프를 찾아내는 분석법이며, 결국 이는 후에 x값이 주어졌을 때, y의 대략적인 값을 예측할 수 있게 한다. 이…

    Read More →: AI study – week 1
  • Coppersmith Method – RSA

    2023-10-11

    /

    comibear
    / 미분류

    When we study about RSA cracking, we could hear a lot about the Coppersmith Method. Briefly, when we want to get some roots against the polynomial, we can compute it simply (not simple to me, simple to computer lol). But if the polynomial is on modulus field, it changes into a completely different problem. So…

    Read More →: Coppersmith Method – RSA
1 2
Next Page→

Comibear's Blog

personal blog for comibear

  • Facebook
  • Twitter
  • Instagram
  • YouTube
  • TikTok