분류 전체보기
-
Chain of thought개발/논문 리뷰 2025. 2. 19. 18:01
참고 논문 : Chain-of-Thought Prompting Elicits Reasoning in Large Language Models Chain-of-Thought Prompting Elicits Reasoning in Large Language ModelsWe explore how generating a chain of thought -- a series of intermediate reasoning steps -- significantly improves the ability of large language models to perform complex reasoning. In particular, we show how such reasoning abilities emerge naturally ..
-
프로그래머스 LV2 마법의 엘리베이터Algorithm/코딩테스트 연습 2025. 1. 25. 22:33
마법의 엘리베이터 프로그래머스SW개발자를 위한 평가, 교육, 채용까지 Total Solution을 제공하는 개발자 성장을 위한 베이스캠프programmers.co.kr 문제 설명 & 제한조건더보기문제 설명마법의 세계에 사는 민수는 아주 높은 탑에 살고 있습니다. 탑이 너무 높아서 걸어 다니기 힘든 민수는 마법의 엘리베이터를 만들었습니다. 마법의 엘리베이터의 버튼은 특별합니다. 마법의 엘리베이터에는 -1, +1, -10, +10, -100, +100 등과 같이 절댓값이 10c (c ≥ 0 인 정수) 형태인 정수들이 적힌 버튼이 있습니다. 마법의 엘리베이터의 버튼을 누르면 현재 층 수에 버튼에 적혀 있는 값을 더한 층으로 이동하게 됩니다. 단, 엘리베이터가 위치해 있는 층과 버튼의 값을 더한 결과가 0보다 ..
-
LRU 알고리즘Algorithm/알고리즘 2025. 1. 16. 16:26
오랜만에 알고리즘 문제를 계속해서 풀다보니, 기억이 잘 안나는 알고리즘을 여기에 정리하겠다. LRU 알고리즘은 OS 시간에 언뜻 배운 것 같은데, 확실하게 기억나지는 않는다. LRU (Least Recently Used)LRU (Least Recently Used) 알고리즘은 캐시 관리에서 사용되는 알고리즘으로, 가장 최근에 사용되지 않은 데이터를 제거하여 새로운 데이터를 저장하는 방식이다. 이 알고리즘은 자주 사용되는 데이터는 캐시에서 오래 유지하고, 드물게 사용되는 데이터는 캐시에서 제거하여 시스템 성능을 최적화한다. 데이터가 사용될 때마다 이를 기록하고, 캐시의 용량이 가득 차면 가장 오래된 데이터를 제거한다. 사용 메모리 캐시 관리데이터베이스 캐시웹 브라우저 캐시 등 구현구현은 일반적으로 적은..
-
Batch normalizationAlgorithm/Neural Network 2025. 1. 15. 22:53
Batch Normalization배치 정규화(Batch Normalization)는 딥러닝 모델의 학습을 가속화하고 안정성을 높이기 위해 사용된다. 신경망의 각 층에서 입력 데이터를 정규화하여 내부 공변량 변화(Internal Covariate Shift)를 줄이고, 학습 과정을 더욱 효율적으로 만든다. 배치 정규화의 필요성 Internal Covariate Shift 딥러닝 모델의 각 층에서 입력 데이터 분포가 학습 중에 변화하는 현상을 의미한다. Back propagation 시에 이전 레이어의 출력값은 해당 층의 가중치와 함께 업데이트 된다. 이때, 매번 이전 층의 출력값(다음 층의 입력값)이 계속해서 변화하게 되어 입력 데이터의 분포가 안정적으로 유지되지 않는다.그 결과, 학습 모델이 불안정해..
-
프로그래머스 LV2 다리를 지나는 트럭Algorithm/코딩테스트 연습 2025. 1. 12. 13:05
다리를 지나는 트럭 문제 설명 & 조건 확인더보기문제 설명트럭 여러 대가 강을 가로지르는 일차선 다리를 정해진 순으로 건너려 합니다. 모든 트럭이 다리를 건너려면 최소 몇 초가 걸리는지 알아내야 합니다. 다리에는 트럭이 최대 bridge_length대 올라갈 수 있으며, 다리는 weight 이하까지의 무게를 견딜 수 있습니다. 단, 다리에 완전히 오르지 않은 트럭의 무게는 무시합니다. 제한 조건bridge_length는 1 이상 10,000 이하입니다.weight는 1 이상 10,000 이하입니다.truck_weights의 길이는 1 이상 10,000 이하입니다.모든 트럭의 무게는 1 이상 weight 이하입니다. 입출력 예bridge_lengthweighttruck_weights210[7,4,5,6] ..
-
AlphaFold - Improved protein structure prediction using potentials from deep learning 1 [성능]개발/논문 리뷰 2025. 1. 8. 23:24
작년 가을, 알파폴드의 개발자들이 노벨 화학상을 수상했다. 알파폴드는 단백질의 아미노산 서열로부터 3D 구조를 예측하는 모델이다. 인공지능이 실제 과학적 문제 해결에 실질적으로 도움을 준 사례라고 할 수 있겠다. 이번 겨울, 알파폴드 1, 2에 대해 논문을 리뷰하고 어떻게 인공지능을 사용해 문제를 해결했는지에 대해 알기 위해 스터디를 시작했다. 본 글에서는 먼저 알파폴드 1에 대한 내용을 리뷰한다. 이번 논문을 리뷰함에 있어서 사전 지식이 부족한 상태로 논문을 읽었더니 이해하는 데 있어 어려움이 많았다. 이에 아래에 간단하게 사전 지식을 정리하고 논문 리뷰를 시작하겠다. 사전 지식 정리1. 아미노산 아미노산은 알파탄소 Cα, 3개의 R기, 아미노기, 카복시기로 이루어진다. R기에 따라 아미노산이 결..
-
Transformer Is All You Need개발/논문 리뷰 2025. 1. 7. 22:35
논문 리뷰를 통해 모호하게 알고 있던 개념을 확실하게 잡고 넘어가고자 글을 작성하게 되었다. 이 카테고리에는 필자의 관심영역의 연구들을 리뷰하고, 가능하다면 구현해보려 한다. 다만 현재 나오고 있는 LLM을 비롯한 거대한 AI 모델들은 학습시키기에 매우 많은 자원이 필요하기 때문에 풀 튜닝은 어렵더라도 LoRA 기법을 활용해 파인튜닝을 하려 한다. 현재 나오고 있는 Chat Gpt 같은 LLM 모델들은 Attention을 기반으로 하고 있다. Abstract.Transformer 이전의 RNN 계열 모델들은 sequence 데이터를 처리할 때 순차적으로 데이터를 처리했다. 대표적으로 LSTM, GRU 모델들은 gate mechanism을 통해 선택적으로 중요한 정보는 남기고, 필요없는 정보는 사라지게 ..
-
8. Spring Boot : Thymeleaf & JSP개발/Spring Boot 2024. 7. 30. 17:28
* 본 글은 벡엔드 부트캠프를 진행하며 작성했습니다. Thymeleaf & JSP는 둘 다 웹 애플리케이션에서 뷰를 렌더링 하는 템플릿 엔진이다. # Thymeleaf템플릿 파일 형식으로써 HTML 파일을 직접 템플릿으로 사용한다. HTML 파일을 그대로 브라우저에서 열 수 있고, 동적으로 렌더링 된다. HTML 파일을 직접 템플릿으로 사용하기 때문에 HTML 친화적이다. xml등 여러 포맷도 지원하며 데이터 바인딩이 간편하다는 장점이 있다. # JSP.jsp 확장자를 가진 Java 기반의 템플릿 파일이다. JSP는 서블릿 기술을 기반으로 하며, HTML 코드 내에 Java 코드를 삽입할 수 있다. 브라킷 내에 자바코드를 삽입해서 사용할 수 있으며 JSTL 같은 태그 라이브러리를 사용하여 동적인 ..