반응형

세상 바뀌는 속도를 따라가고자
급하게 인공지능 지식 쌓아 올리기 프로젝트를 진행하고 있다.
프로젝트하니까 거창해 보이는데 이번이 두 번째 결과물이다^^
바로 "AI 리터러시: 인공지능 필수 지식부터 완벽 활용까지"

출처 : 네이버 도서 검색

연말에 서점에 들렀다가 신간 코너에서 발견한 책이다.
궁금해서 펼쳐봤는데 시중에 나와 있는 생성형 AI들을
용도별로 구분해서 자세하게 소개해주고 있더라.
챗지피티 알면 다행인 내가 딱 필요로 하던 거잖아...!
그렇게 읽게 되었습니다.

출처 : 도서 표지 후면

참고로 지난번에는 이 책을 읽었는데요.
2024.12.27 - [공부/IT] - [책 리뷰] 비전공자도 이해할 수 있는 AI 지식
혹시 저처럼 인공지능 공부에 관심 있으신 분은
AI 리터러시를 먼저 본 후에 읽는 걸 추천합니다
여기서 간략하게 소개하는 개념을 조금 더 깊게 다루는 느낌입니다

아무튼 각설하고 목차의 대제목만 먼저 살펴볼게요

파트 1: 이제는 모두의 AI 리터러시
파트 2: 누구나 쉽게 이해하는 인공지능 기술
파트 3: AI 리터러시 업그레이드 생성형 AI 서비스 가이드
파트 4: '나' 맞춤 AI 리터러시

이렇게 구성되어 있는데
순서대로 어떤 내용들이 들어 있는지 정리해 볼게요
아래에 이어지는 내용은 책을 보면서 정리한 것임을 미리 밝혀둡니다
(아주 간혹 내 생각이나 추가 공부한 내용 포함될지도)

파트 1: 이제는 모두의 AI 리터러시

AI 리터러시는 “AI 기술을 이해하고, 활용하며, 비판적으로 평가할 수 있는 종합적인 능력”을 의미한다.

- AI 리터러시의 핵심 영역 5가지
1) AI 데이터의 이해 : AI 기본 원리와 작동 방식을 이해하고, AI의 기반인 데이터의 중요성을 인식하며 이를 해석/활용하는 능력
2) 프롬프트 엔지니어링 : AI에게 효과적인 명령어/질문을 제시하여 원하는 결과를 얻어내는 능력
3) AI 활용 문제 해결 : 일상생활과 업무 환경에서의 다양한 문제를 AI 기술을 활용하여 해결하는 능력
4) AI에 대한 비판적 사고 : AI의 한계와 잠재적 편향성을 인식하고, 생성된 결과물을 비판적으로 평가하는 능력
5) AI 윤리와 사회적 영향 : AI 사용에 따른 윤리적 문제와 사회적 영향을 인식하고, 관련 법규와 정책을 이해하는 능력

출처 : 도서 18페이지

프롬프트 엔지니어링은 “AI에게 효과적으로 지시를 내리고 원하는 결과를 얻어내는 기술”이다. 프롬프트에도 어느 정도 공식이 존재하며, 그에 맞게 작성해야 원하는 결과물을 뽑아낼 수 있는 확률이 높아진다. 한두 줄의 너무 짧은 프롬프트 입력으로는 절대 좋은 결과물을 얻을 수 없다.

- 프롬프트 구성시 꼭 포함되어야 하는 필수 요소 3가지
1) 지시사항(Instruction) : AI에게 무엇을 해야 하는지 구체적으로 알려주는 명령
2) 맥락(Context) : AI가 작업을 수행하는데 필요한 배경 정보를 제공
3) 출력형식(Output Format) : AI에게 원하는 출력 형식을 알려주는 지시어

- AI 답변의 품질을 높이는 보조 프롬프트 요소
1) 입력 데이터(Input Data) : AI가 작업을 수행하는 데 필요한 데이터 LIKE 요약할 글, 번역할 문장, 참고해야 할 최신 정보 등
2) 제약조건(Constraints) : AI의 답변에 제한을 두어, 더 구체적이고 집중된 결과를 도출하게 함
3) 예시(Example) : AI에게 어떤 답변을 원하는지 구체적으로 알려줌 

구성요소 예시
지시사항 ㅇㅇ에 관한 에세이를 써주세요.
ㅇㅇ에 대한 토론 주제를 제시해주세요.
맥락 이번 보고서는 ~~에 대한 것으로, 핵심요소는 ~~다.
이 스크립트는 ~~에서 발표될 예정이며, ~~가 주된 내용이다.
출력형식 표 형식으로 정리해주세요.
최근의 사건이 가장 위로 오는 타임라인 형식으로 제시해주세요.
입력 데이터 다음 데이터를 바탕으로 분석 보고서를 작성해주세요(+데이터 파일)
다음 문장을 한국어에서 스페인어로 번역해주세요(+한글 문장)
제약조건 500자 이내로 요약해주세요.
00연도 이후의 자료로만 구성해주세요.
예시 보고서 개요, 레시피, 여행 계획, 그림 등 가능한 한 구체적이고 명확하게 제공

그 외에도 사용되는 프롬프트 엔지니어링 기법들로,

1) 제로샷 프롬프팅 : AI에게 별도 예시를 주지 않은 상태에서 새로운 작업을 하도록 요청. AI가 기존에 학습한 내용을 바탕으로 처음 접하는 작업/질문에 대응하게 함. 전문적인 작업에서는 정확도가 떨어질 수 있으며, AI의 학습 범위를 벗어나는 주제에는 관련 없는 답변을 생성할 수도 있다는 한계 존재
2) 원샷 프롬프팅 : AI에게 딱 1개의 예시만 제공하여 작업을 지시. 최소한의 정보로 최대한의 결과를 얻고자 할 때 사용함. 대표성이 높은 예시를 제공해야 원하는 결과를 얻을 확률이 높아짐
3) 퓨샷 프롬프팅 : AI에게 여러 개의 예시를 제공하여 작업을 지시. 원하는 결과물의 스타일/특징과 가까운 결과를 낼 확률이 높으나, 제공된 예시 간 일관성이 없거나 너무 많은 경우 역효과가 날 수도 있음
4) CoT 프롬프팅(Chain of Thought) : AI에게 문제 해결 과정을 단계별로 설명하도록 유도
5) 역할 할당 프롬프팅 : AI에게 특정 역할이나 관점을 부여하여, 그 역할에 맞는 방식으로 응답을 생성하도록 유도

주의해야 할 문제들로는 1) AI의 환각현상(할루시네이션 Hallucination)은 AI가 실제로 존재하지 않는 정보를 마치 사실인 것처럼 제시하는 현상을 의미. AI가 학습한 데이터를 바탕으로 가장 확률적으로 높은 답변을 생성하는 과정에서, 실제로 존재하지 않는 정보나 잘못된 정보를 사실처럼 제시하는 것. 불완전한 데이터, 생성 방식의 특성, 명확하지 않은 프롬프트 등으로 인해 발생하게 됨. 방지를 위해 팩트 체크를 꼭 해야 함. 다른 플랫폼 등을 활용해 AI 답변의 사실 관계를 확인해야 함

2) AI의 편향성이 있음. AI가 학습하는 데이터들 속에는 이미 세상에 존재하는 수많은 편견들이 반영되어 있음. AI가 이 데이터들을 그대로 학습하면서 편향될 수 있음. 그렇기에 AI의 답변을 무조건 믿기보다는 비판적으로 바라볼 줄 알아야 함.

AI 디바이드란 “AI를 효과적으로 사용할 수 있는 사람과 그렇지 못한 사람 간의 격차”를 의미함. AI 교육 전문가 마르코 누베즈에 따르면, AI 디바이드에는 총 4개 수준이 존재

1) 레벨 1 인식 : AI 접근 불가
2) 레벨 2 사용 : AI 접근 가능하나, AI에 대한 이해는 없음
3) 레벨 3 숙지 : AI에 접근하고 이해하지만, 통찰력 있고 효율적인 사용은 못함
4) 레벨 4 통합 : AI에 접근하고 이해하며, 통찰력 있고 효율적인 사용 가능함 

출처 : 마르코 누베즈 링크드인 포스트

나는 아주 좋게 봐줘야 레벨 2에 속하는 것 같다. 왜냐 얼마 전에 블로그 쓰면서 챗지피티한테 이미지 만들어달라 했는데 이 난리였거든요ㅋ 그래서 빠르게 포기했는데요. 이번에 이 책 자세히 읽으면서 나에게는 프롬프트 엔지니어링 스킬이라는 게 전혀 없다는 사실을 뼈저리게 느꼈다. 예시도 줬는데... 지피티 이 자식... 했는데 잘못은 나에게 있었던 걸로 ㅋㅎ 반성하자 진짜

파트 2: 누구나 쉽게 이해하는 인공지능 기술

여기서는 우리가 실제로 사용하고 있는 서비스들 속에 숨어 있는 AI를 설명해 줘요.
넷플릭스와 유튜브의 추천 알고리즘 속에 녹아 있는 콘텐츠 기반/협업 필터링이라거나,
시리와 같은 AI 비서 속에 숨어 있는 음성 인식, 자연어 처리, 대화 관리, 음성 합성과 같은 기술들입니다.
그리고 AI의 개념과 역사, 주요 적용 분야에 대해 설명하고 있어서 유용해요.
꼭 책을 읽으면서 내용 파악해 보시기를 추천해요.
그리고 조금 더 자세한 내용이 궁금하다면 아까 소개한
"비전공자도 이해할 수 있는 AI 지식"으로 넘어가면 좋을 것 같아요.

이 부분을 읽으면서 이외에도 내 일상에 스며든
AI 기반 서비스들이 뭐가 있을지 고민해 봤는데
유튜브, 넷플릭스, 애플뮤직, 밀리의 서재, 왓챠피디아 같은 서비스들은
다 추천 알고리즘을 기반으로 나를 조종하고 있고,
요즘은 듀오링고와 플랭 같은 AI 기반 언어 공부 앱들로 공부도 하고 있다.
일할 때는 클로바노트로 회의록 쓸 때 도움도 받고 하니까
노션으로 프로젝트 정리도 하고, 내 개인적인 기록도 남기기도 한다.
이렇게 보니 진짜 내 생활의 전부라고 말해도 될 정도다.
이렇게나 AI 속에서 살고 있지만
정작 생성형 AI와는 전혀 친하지가 않은데요.
그래서 이어질 파트에서 깊게 공부해 보겠습니다.

파트 3: AI 리터러시 업그레이드 생성형 AI 서비스 가이드

이번 파트에서는 결과물 종류나 활용 목적에 따라
AI 서비스들을 다섯 가지로 나눈 후
각 서비스들의 개요, 특별한 기능, 간단한 활용법에 대해 소개한다.
[대화형, 이미지 생성형, 동영상 생성형, 특화 기능 생성형, 연구 및 교육용]
여기서부터는 내가 이용해 볼 만한 것들만 추렸다.
자세한 건 책을 직접 찾아보길 추천한다.

[대화형 AI]

인간과 자연스럽게 대화를 나눌 수 있는 인공지능으로
사용자가 입력하는 텍스트에 적절하게 응답하거나 정보를 제공하는 기술이다.
앞서 파트 2장에서 소개한 대규모 언어 모델(LLM)을 기반으로 동작한다.

(1) 챗GPT, ChatGPT, https://chatgpt.com/
- 기본적인 문서 작성부터 정보 검색, 이미지와 파일 분석, DALL-E 모델 기반 고품질 그림 생성
- GPT 모델에 기반한 애드온을 찾을 수 있는 GPT 스토어라는 기능 존재

(2) 클로드, Claude, https://claude.ai/
- 자연스러운 느낌의 글쓰기 제공. 일반적인 질문-답변부터 문서/이미지 분석
- 생성된 결과물을 실시간 편집할 수 있는 작업 공간인 아티팩트 기능을 통해 코드 실행, 그래프 생성, 동적 이미지 제작, 게임 개발까지 가능
- 인터넷에 연결되어 있지 않아 최신 정보를 실시간으로 제공받을 수는 없음

(3) 제미나이, Gemini, https://gemini.google.com/
- 질문 답변, 이미지 및 문서 분석 등 대화형 AI 기본 기능 제공
- 구글 서비스와 호환. 구글 드라이브/지메일 검색 및 정리, 구글 독스 활용 문서 작성 등. 이마젠3 모델 기반 고품질 이미지 생성
- 인터넷 검색을 통한 최신 정보 제공. GPT 스토어와 유사한 Gem이라는 기능 존재

출처 각 서비스 홈페이지

(4) 클로바X, ClovaX, https://clova-x.naver.com/
- 하이퍼클로바X 모델을 기반으로 하여 타 서비스에 비해 한국어/한국 데이터에 특화
- 스킬 기능을 통해 네이버 서비스들과 호환, 에이전트 기능을 통해 전문적인 작업 지원

(5) 노트북LM, NotebookLM, https://notebooklm.google
- 여러 문서를 비교 분석하거나 여러 문서에서 정보를 바로바로 찾아야 할 때 유용
- 문서 형식 자유. 구글 문서/슬라이드, PDF, 텍스트, URL 모두 분석 가능
- 제미나이 1.5 프로 기반 이미지/차트/도형 분석, 출처 인용, 자료 요약 또는 새 목차 작성 등

출처 각 서비스 홈페이지

(6) 퍼플렉시티, Perplexity, https://www.perplexity.ai
- 실시간 웹 검색을 통한 최신 정보 제공과 신뢰할 수 있는 출처 제시로 AI의 환각현상 최소화
- 작성한 문서를 업로드하고 역으로 참고 문헌을 찾아달라고 요청할 수도 있음

(7) 웍스AI, Wrks AI, https://wrks.ai/ko
- 대화형 AI부터 문서 번역, 데이터 분석, 회의록 작성 등 직장인 맞춤형 기능 제공
- 나만의 비서 만들기 기능을 통해 회사 규정을 학습시키거나, 반복 업무를 자동화하는 등 커스텀 가능

[이미지 생성형 AI]

텍스트를 입력받아 원하는 이미지를 만들어주는 인공지능 기술이다.
대규모 이미지 데이터로 학습된 인공지능 모델을 기반으로 작동한다.

(1) 디자이너, Designer, https://designer.microsoft.com/?
- 배경화면, 스티커 등 다양한 이미지 무료 제작 가능
- 생성형 지우기를 사용해 필요 없는 부분, 배경 등 제거도 편리

(2) 파이어플라이, Firefly, https://www.adobe.com/kr/products/firefly.html
- 실사에 가까운 이미지 필요시 사용
- 텍스트 기반 이미지 생성, 생성형 채우기/확장하기 등 기능 제공
- 크리에이티브 클라우드 라이선스 인증을 부여하여 저작권 문제에서 자유로움

출처 각 서비스 홈페이지

이외에도 많이 들어본 미드저니, 이머시티 AI 같은 애들이 있었는데
개인적인 활용도가 낮으리라 예상해 넣지 않았다.
궁금하신 분은 직접 책을 찾아보시길 추천드립니다.

[특화 기능 생성형 AI]

(1) 감마, Gamma, https://gamma.app/ko
- 텍스트/프롬프트/파일/URL 기반 프레젠테이션 생성
- 세세하고 전문적인 디자인 조정은 어려워 짧은 시간 내에 발표자료를 제작해야 할 때 사용

(2) 릴리스AI, Lilys AI, https://lilys.ai
- 유튜브 등 영상/웹사이트/PDF/녹음 요약 기능 제공

출처 각 서비스 홈페이지

[연구 및 교육용 AI]

(1) 사이스페이스, SCISPACE, https://typeset.io
- AI 기반 논문 검색과 추천, 논문 요약 및 핵심 내용 추출, AI 채팅 기능으로 문서 내용 심층 이해
- 오픈 액세스 논문 위주라 원하는 분야별로 접근 가능한 문헌 범위가 상이함

(2) 리서치 래빗, ResearchRabbit, https://www.researchrabbit.ai
- 논문간 관계 파악 및 시각화로 연구 분야의 전반적인 동향/방향성 파악 용이

출처 각 서비스 홈페이지

(3) 딥엘, DeepL, https://www.deepl.com/ko/whydeepl
- 33개 언어 간 번역 지원 및 PDF/워드/파워포인트 등 다양한 형식의 파일 번역
- AI 기반으로 사용자가 작성한 글을 다듬는 편집/개선 도구인 딥엘 라이트 서비스 존재

(4) 냅킨 AI, Napkin AI, https://www.napkin.ai
- 텍스트를 시각적 그래픽으로 변환하는 서비스

출처 각 서비스 홈페이지

파트 4: '나' 맞춤 AI 리터러시

이번 파트에서는 학생, 직장인, 공무원 등 자신의 상황에 따라
맞춤형으로 업무나 일상 속에서 적용할만한 서비스들을
파트 3보다 훨씬 더 자세하게 소개해준다.

풍부한 화면 캡쳐와 함께 서비스 내 각 기능들을 조금씩 보여줘서
내 상황에서는 이렇게 쓸 수 있겠다는 감이 잡히게 해 주더라.
이거쟈나 내가 원했던 거...!

상황 어울리는 서비스
발표자료를 만들 시간이 부족할 때 감마
회의록을 만들어야 할 때 다글로
자료에 들어갈 이미지가 필요할 때 냅킨 AI
데이터를 분석하고 싶을 때 클로드 아티팩트
길이가 긴 보고서나 영상 내용을 파악하고자 할 때 릴리스 AI
보도자료, 축사 등 정형화된 문서를 작성할 때 챗GPT
외국 자료를 참고하거나, 자료를 외국어로 작성해야 할 때 딥엘
연구 논문 검색, 유사 연구 검색 및 관계 분석이 필요할 때 리서치래빗
논문 외에도 연구 보고서, 기타 문헌을 통해 정보를 얻고자 할 때 퍼플렉시티
실사 스타일의 이미지가 필요할 때 파이어플라이

이렇게 해서 AI 리터러시란 무엇인지부터
리터리시 단계를 높이기 위해 활용할만한 서비스들과
그 서비스들을 사용하는 방법에 대해서도 공부할 수 있었다.

하나씩 써 볼 계획을 세우고 있었는데
인스타그램이 나에게 좋은 활동을 하나 추천해 줬다.
바로 네이버 커넥트 부스트코스에서 운영하는
"Generative AI 2025 스터디"다.

출처 : 네이버 부스트코스 메인

4주 기간 동안 생성형 AI를 활용하는 법을 배우는 활동이다.
신청한다고 다 뽑아주는 건 아니지만 일단 접수는 해봤다.
2025년의 트렌드 중 하나가 작은 성취를 이루는 "원포인트업"이라고 누가 그랬는데
오는 2월 나의 원포인트업이 이번 스터디이길~🙏🏻

반응형
반응형

대학 때 인공지능의 이해 같은 수업도 들었지만
요즘 세상 바뀌는 속도를 전혀 따라가지 못하는...
거의 좀비에 가까운 전공자인데

최근 어디 시험 보러 갈 일이 있었는데
내가 인공지능 관련 문제를 하나도 모르더라?
용어 자체도 낯설기까지 했음

상당히 충격을 먹고 반성하는 의미로
급하게 인공지능 지식을 하나둘 쌓아보고자 책을 읽었습니다.

무려 책 제목은 <비전공자도 이해할 수 있는 AI 지식>이다.

출처 : 네이버 검색


인공지능이 발전하는 과정과 기술이 어떻게 작동하는지를
이해하기 편하게 쉽고 간단하게 설명해 주는 책이었다.
(알고 보니 지은이가 현차 인공지능 기술 리더셨음)

아무튼, 한두 번은 더 읽고 필요한 부분은 따로 더 공부를 해야겠지만
이 책에서 다루는 수많은 내용들 중 서너 가지만 뽑아서 정리해보려 한다.

우선 목차는 다음과 같다

<목차>
제1장. 인공지능 | 위대한 인공지능, 깨어나다
제2장. 알파고 | 인간을 능가하는 기계의 등장
제3장. 자율주행 | 테슬라가 꿈꾸는 기계
제4장. 검색엔진 | 구글이 세상을 검색하는 법
제5장. 스마트 스피커 | 시리는 쓸모 있는 비서가 될 수 있을까
제6장. 기계번역 | 외국어를 몰라도 파파고만 있다면
제7장. 챗봇 | 챗GPT, 1분 안에 보고서 작성해 줘
제8장. 내비게이션 | 티맵은 어떻게 가장 빠른 길을 알까
제9장. 추천 알고리즘 | 알 수 없는 유튜브 알고리즘이 여기로 이끌다

그중에서도 내가 리뷰하고 싶은 부분은
1장 인공지능, 2장 알파고, 3장 자율주행, 그리고 6장 기계번역이다.
아래에 이어지는 내용은 책을 보면서 정리한 것임을 미리 밝혀둡니다
(아주 간혹 내 생각이나 추가 공부한 내용 포함될지도)

1장 인공지능

  • 모라벡의 역설(Moravec’s Paradox)이라는 말이 있다. "어려운 것은 쉽고, 쉬운 것은 어렵다"
    우리에게는 간단한 것일지라도 인공지능에게는 어려울 수도 있다는 의미기도 하다고 한다.
  • 1956년 다트머스대학교에서 지능을 가진 기계를 주제로 한 학술대회가 열렸다. 이곳에서 처음으로 인공지능이라는 용어 고안하고 사용했다.
  • 뒤이어 1958년 인간의 두뇌 구조를 본뜬 인공 신경망 모델도 등장한다. 인공 신경망의 초기 모델을 퍼셉트론Perceptron이라고 하는데, 인간 두뇌가 뉴런이 서로 연결된 상태로 전기신호를 내보내며 정보를 전달한다는데서 착안했다. 비슷한 형태로 인공 뉴런이 연결된 구조의 인공 신경망 구현하게 된 것이다. 기대감이 상당했으나 쓰임새를 찾지 못해 잊힌 기술이 되어버린다.
  • 대신 인공지능 초창기에는 if-then 규칙을 기반으로 하는 인공지능이 우세했다. 겉보기에 결과물이 인공 신경망에 비해 훨씬 괜찮았기 때문이다. 하지만 규칙을 기반으로 해 한계가 분명했기 때문에 이것마저 시들해졌다.
    (이때부터 한동안을 우리 교수님도 말씀하셨던 인공지능의 암흑기라고 하는 듯)
  • 1980년대 머신러닝(기계학습) 알고리즘 등장한다. 컴퓨터가 스스로 규칙을 찾아낼 수 있게 된 것이다.
    하지만 일부 연구자들만 취급하는 주제였는데, 2010년대 들어 이미지 인식 분야에 도입되면서 다시 빛을 발하게 된다.
  • 2012년 이미지넷 대회에서 토론토대학교의 제프리 힌튼 교수팀이 사용한, 컨볼루션 기법을 사용한 딥러닝으로 인공지능의 시대가 부활한다. 딥러닝은 머신러닝의 일종으로, 데이터와 정답을 입력하면 스스로 규칙을 찾아낸다는 점에서 비슷하게 작동한다.
    그러나 딥러닝은 훨씬 더 많은 데이터를 학습하고, 훨씬 더 많은 규칙을 찾아낼 수 있다. 특히나 딥러닝이 돋보이는 분야가 바로 기계번역이다.
  • 인공지능의 폭발적인 성장을 견인한 데는 GPU의 사용이 한몫함 GPU는 상대적으로 성능이 떨어지는 코어를 엄청나게 많이 꽂아둔 형태다. 그래서 각각의 성능은 좀 떨어지더라도 전체 작업을 빠르게 처리할 수 있다 = 병렬연산에 강하다. 하나하나는 빠르지 않더라도 많은 작업을 동시에 진행해 결과적으로는 더 빨리 처리할 수 있는 것.
  • 특히나 엔비디아는 CUDA(Compute Unified Device Architectures) 플랫폼을 통해 GPU를 활용할 수 있는 방법을 계속해서 모색하고, GPU 사용을 적극 지원하고 있었기에, 엔비디아의 지금과 같은 독점 체제가 형성될 수 있었다.
    오늘 뉴스레터 보니까 엔비디아가 "AI 시장에서 독보적인 존재감"을 드러내고 있다고 하는데, 그 시작점이 쿠다인 거네.
    특히나 현재 엔비디아의 GPU는 시장점유율 90% 정도로, 대규모 언어 모델(LLM)과 생성형 AI 기술 개발에 있어 대체 불가능한 핵심 요소라고 한다.

2장 알파고

  • 모든 경로를 탐색하는 것을 완전 탐색이라고 한다. 하지만 효율적인 탐색을 위해, 성과가 없으면 더 이상 탐색하지 않고 넘어갈 수 있다. 이를 컴퓨터 과학에서는 가지치기(Pruning) 한다고 표현하는데, 나뭇가지 자르듯 쳐내버리고 다시는 탐색하지 않는 것이다.
  • 도박처럼 확률적인 방법으로 결과를 유추해 내는 방식을 몬테카를로 방법이라고 한다. 계속 도전하면 결국은 원래 확률만큼의 결과를 얻을 수 있는데 이런 식으로 값을 계산하는 알고리즘이다. 여러 번의 무작위 실험으로 결과를 관찰하는 편이 더 실용적이다란 생각에서 출발했다고.
    2006년부터는 게임 트리 탐색에 몬테카를로 방법을 접목한 몬테카를로 트리 탐색 알고리즘을 고안했다. 이를 바둑 인공지능에 적용, 실력 급상승하는 결과를 가져왔다.
  • 알파고에 적용된 두 종류의 인공 신경망 = 정책망과 가치망.
    정책망은 다시 3가지로 나뉘어, 알파고에는 총 4가지 신경망이 사용되었다.
    (정책망) 사람이 만든 기보 중 6단 이상을 모아 학습한 기보학습 정책망 + 전자보다 훨씬 작고 가벼운 롤아웃 정책망 + 알파고가 스스로 대국하며 강화학습을 수행한 강화학습 정책망
    (가치망) 현재 국면에서 승패 여부를 예측하는 망. 정책망끼리의 대국에서 장면을 추출해 내, 현재 대국에서 승패 확률을 계산해 내는 망

3장 자율주행

  • 베이즈 정리 >> 확률은 믿음에 불과(?)할 뿐이며 세상에 절대 원칙이란 존재하지 않으므로, 무엇이든 조심스럽게 관찰하며 의심해야 한다. 믿음을 업데이트해나가는 원리다.
    자율주행차 역시 새로운 신호가 들어올 때마다 기존의 믿음을 새로운 믿음으로 끊임없이 업데이트한다. 레이더/라이더/카메라와 같은 장치와 여러 센서들을 통해 주행 환경과 외부 정보를 계속해서 업데이트해나가면서 안전하게 주행가능한 길을 찾아내는 원리라는 의미.
  • 컨볼루션 신경망은 동물이 이미지를 판별할 때 사물 전체를 한 번에 보는 대신 부분으로 조각내어 살펴보는 것과 비슷함. 복잡한 이미지를 단순한 선과 모서리로 해체하고, 조각난 부분을 살피면서 필터링해 결과를 내보냄. 결국 여러 번 필터링한 결과를 인공 신경망의 뉴런을 거쳐 최종 결과로 추출한다.
  • 자율주행은 기술 수준에 따라 5단계로 나뉜다. 미국 자동차 공학회(SAE)가 정의함
    0단계 자율주행 기능 없음
    1단계 운전자 지원 >> 발 떼기 : 크루즈 컨트롤, 충돌 경고, 비상 제동 가능
    2단계 부분 자율주행 >> 손 떼기 : 조향&속도 자동화 제어 가능
    3단계 조건부 자율주행 >> 눈 감기 : 부분 자율주행 가능. 시스템 요청 시에 일정시간 이내 운전자가 즉각 개입할 수 있어야 함
    4단계 고도 자율주행 >> 뇌 끄기 : 고급 자율주행 가능. 지정된 영역을 벗어나거나 특수한 상황에서는 운전자의 개입 필요
    5단계  완전 자율주행 >> 인간 개입 전혀 필요 없음.

출처 : 현대 트랜시스 블로그 (https://blog.hyundai-transys.com/249)

  • 완전자율주행이래도 인간이 필요한 순간이 올 텐데 그때 능숙하지 않은 운전자가 있다면? 의 문제와
    유명한 윤리학 실험인 광차문제가 아직 남아 있음. 광차문제는 철도 선로에 각각 1명과 5명이 있을 때 어느 쪽을 희생시키는 것이 옳냐는 의문

6장 기계번역

  • 규칙 기반 > 예시 기반 > 통계 기반 > 신경망 기반 순으로 발전함
  • 신경망 기반은 문장을 통째로 압축해 숫자로 표현한 벡터를 만든다. 그리고 이 값으로 다시 번역문을 찾아낸다.
    문장을 압축하는 과정에서는 문장을 띄어쓰기 단위로 구분한다. 그리고 차례대로 인공 신경망을 통과하여 핵심적인 특징을 추출한다. 여러 번 계산을 통해 최종적으로 문장 전체의 의미를 압축한 벡터가 나오게 되는데, 이 과정을 수행하는 부분을 인코더라고 한다.
  • 반대로 문장을 푸는 부분은 디코더라고 한다. 압축된 벡터를 받아서 순서대로 풀어내는 역할이다.
    한 단어씩 차례대로 푸는데, 이때 앞선 단어의 번역 + 인코더가 압축한 벡터를 받는다.
    문장 번역이 끝날 때까지, 디코더는 계속해서 인코더가 압축한 벡터를 참조하면서 보다 자연스러운 문장을 만들어낸다.
  • 하지만 이 방식은 원문의 길이에 상관없이 일정한 길이의 벡터로 1번만 압축한다는 단점 + 번역문이 길어질수록 핵심 단어를 놓친다는 단점이 존재한다.
  • 이 방식을 해결하고자, 보다 중요한 단어를 강조하는 원리인 어텐션Attention이 등장한다.
    어텐션은 번역문의 단어를 생성할 때마다 출력 문장 길이에 맞춰 압축 벡터를 생성한다. 그래서 장문 번역에 용이해짐.
    그리고 중요한 단어에는 별도의 가중치를 부여한다. 이로 인해 번역문이 길더라도 번역의 정확성은 지키게 된다. 핵심 단어가 강조되니까.
  • 아예 어텐션으로만 인공 신경망을 구성한 논문이 있음. 논문 이름도 <Attention is all you need>인데, 여기서 딥러닝 모델 트랜스포머가 등장한다.
    (트랜스포머의 구조) 인코더는 입력 문장을 압축하여 핵심적인 특징을 추출하는 역할을 맡고, 디코더는 인코더가 압축한 벡터를 받아와 출력 문장을 생성함. 인코더는 한 종류의 어텐션, 디코더는 두 종류의 어텐션으로 구성됨.
  • 기계번역에서 인코더가 문장의 의미를 압축해 낼 수 있다는데서 착안해 자연어 이해 모델인 버트BERT가, 디코더가 문장을 생성하는데서 착안해 자연어 생성 모델인 GPT-3가 등장했다.

출처 : 현재 소개 중인 AI 지식 도서

내가 더 자세히 공부해야 할 부분은 기계번역과 챗봇이다.

누구든 인공지능 교양서나 입문서가 필요하다면 추천한다.

반응형

+ Recent posts