본문 바로가기
반응형

개발54

[Python] 바이트 문자열과 바이트 배열의 차이 이해하기 바이트 문자열의 불변 객체 특성으로 발생할 수 있는 상황을 이해합니다.      목차   개발 의도# 바이트 문자열 생성byte_str = b"hello"print("byte string:", byte_str)# 바이트 문자열 생성byte_str[0] = b"a"print("byte string:", byte_str)# 출력값: TypeError: 'bytes' object does not support item assignment- 위와 같이 바이트 문자열을 생성하고, 첫 글자를 수정합니다.- 최종 출력값은 b"aello"가 되어야 합니다. 문제 상황- 위 함수를 실행했을 때, 최종 출력값이     TypeError: 'bytes' object does not support item assignment.. 2024. 11. 13.
[Python] 반복문과 Lambda: 값 캡처와 변수 참조의 차이 이해하기 반복문 속에서 Lambda를 사용할 때, 발생할 수 있는 오류를 확인합니다.    목차 개발 의도# lambda 함수를 저장하기 위한 배열funcs = []# 배열에 lambda 함수 저장for i in range(3): funcs.append(lambda: print(i))# 루프가 끝난 후 모든 lambda 함수 실행for func in funcs: func()# 출력값: 2 2 2- 위와 같이 반복문과 lambda 함수를 이용하여 리스트에 print 함수 3개를 저장하는 코드를 작성합니다. - funcs에 저장된 함수를 순서대로 실행하여, 최종 출력값은 0, 1, 2가 되어야 합니다. 문제 상황- funcs에 저장된 함수를 순서대로 실행했을 때, 최종 출력값이 2, 2, 2가 되는 상황이.. 2024. 11. 12.
[AI] ResNet 요약정리 ResNet 요약정리  목차 서론- ResNet은 딥러닝 모델이 깊어질수록 발생하는 기울기 소실 문제를 해결하기 위해 개발되었습니다.- ResNet은 2015년 마이크로소프트 리서치 아시아(Microsoft Research Asia)의 연구원들에 의해 개발되었습니다. ResNet의 개념- 잔차 학습(Residual Learning)기존 학습은 입력으로부터 목표 출력을 계산(예측)할 수 있도록 학습합니다.잔차 학습은 입력과 목표 출력의 차이, 즉 잔차(residual)를 계산(예측)할 수 있도록 학습합니다.입력 x, 목표 출력 H(x), 잔차 F(x) 라고 할 때,기존 학습: x -> H(x), H(x)를 학습함잔차 학습: x + F(x) = H(x), F(x)를 학습하여 H(x)를 구함 - 스킵 연결(S.. 2024. 9. 1.
[AI] ChatGPT의 딥러닝 모델 Transformer 요약 ChatGPT를 만든 딥러닝 모델 Transformer 요약 정보   목차 - ChatGPT는 OpenAI에서 개발한 GPT(Generative Pre-trained Transformer) 시리즈 중 하나입니다.- GPT 시리즈는 딥러닝 기반 자연어 처리 모델로, 텍스트 생성, 번역, 요약, 질문 응답 등의 작업을 수행합니다.- GPT는 Transformer 구조를 사용하여 대규모 텍스트 데이터를 학습하며, 언어의 구조와 의미를 이해합니다. 서론- Transformer는 딥러닝 모델로, 자연어 처리 작업에서 혁신을 가져왔습니다.- 2017년 구글 연구원들의 논문 "Attention is All You Need"에서 처음 소개되었습니다.- 순차적 데이터 처리에 탁월하며, RNN 및 LSTM을 대체하는 주요.. 2024. 8. 27.
[AI] 인공지능 모델 설계 자동화를 위한 NAS 간단한 예제 인공지능과 딥러닝 모델의 설계 과정을 자동화하는 NAS 간단한 예제    목차 - Neural Architecture Search (NAS)는 딥러닝 모델의 아키텍처를 자동으로 탐색하는 방법입니다.- TensorFlow 기반으로 간단한 NAS 예제를 구현할 수 있습니다.- 이 예제에서는 tf.keras를 사용하여 기본적인 NAS를 구현하겠습니다. NAS 간단한 예제 코드- NAS의 복잡성을 고려해, 이 예제에서는 매우 간단한 CNN 모델을 탐색하는 방식을 보여드리겠습니다.# 라이브러리 임포트import tensorflow as tffrom tensorflow.keras import layers, modelsimport numpy as np# 데이터셋 준비: 간단한 MNIST 데이터셋 사용(x_train,.. 2024. 8. 26.
[AI] 인공지능 모델 설계 자동화를 위한 NAS 인공지능과 딥러닝 모델의 설계 과정을 자동화하는 NAS      목차   - Neural Architecture Search (NAS)는 인공지능과 딥러닝 모델의 설계 과정을 자동화하는 기술입니다.- 전통적으로, 딥러닝 모델의 아키텍처(구조)는 전문가들이 경험과 직관에 따라 설계했습니다. 그러나 이 과정은 매우 복잡하고 시간이 많이 걸리며, 특히 대규모 신경망의 경우 최적의 구조를 찾기 어렵습니다.- NAS는 이러한 문제를 해결하기 위해, 최적의 신경망 구조를 자동으로 찾아주는 방법론입니다. NAS의 기본 개념- NAS는 주어진 데이터와 문제에 대해 최적의 신경망 아키텍처를 자동으로 탐색하는 과정입니다.- 이 과정은 일반적으로 세 가지 주요 단계로 나뉩니다.탐색 공간 (Search Space) 설정   .. 2024. 8. 12.
반응형