본문 바로가기
  • 분주한 마음 틈으로 '제주'를 우겨 넣으니 참을 수 없는 평온이 몰려왔다
  • 비로서 허락한 소백산 비로봉 푸른 하늘과 초록 풀밭에 그리움까지 숨겨놓고 말았다
후니의 책가방

박태웅의 AI 강의 2025

by 여.울.목 2025. 3. 4.

박태웅의 AI 강의 2025
2024/12/05
박태웅
한빛비즈



젊은 시절 앨빈토플러의 책 시리즈에 심취했던 때가 있었다.
앞으로의 미래는 어떨까?

우리 미래를 좌우하는 것은 무엇인지 궁금했다.
제법 값이 나가는 책인데도 사 읽었다. - 결국 미국이 제일 잘 나갈거야... 정보를 가진 자, 조금 더 세밀히 말하면 정보통신이 부(富)를 가져오게 하는 수단 일 것이다.
반면 걱정된다면 정보통신 발전과 더불어 윤리문제였다. 올바른 윤리를 정립하고 지켜나가야 한다-는 내용으로 기억한다.
이 책을 읽으며,
아직 토플러의 예측 선상에 있는 것 같다~,
예전엔 AI 파트가 나오면 - 좋은 아야기지만 아직 멀었다며 한 쪽으로 치워놓을 수밖에 없었던 것.
이제 구체적이고 거대하게 세상을 바꾸고 있다.
그럼에도 올바르게 인간을 위해 쓰여지기 위해서는 적정한 규제가 필요하다는 것.
큰 틀에서 같은 방향성을 지닌 것 같더라.

이(理科)과 강의에서 문과(文科) 강의로 이어진다는 느낌을 받았다.
GPT의 놀라움과 그 이면의 허점을 이야기하면서 그 딱딱함이 시작된다.
인공지능이 더 똑똑해지면 스스로를 강화하려 전혀 다른 방향으로 움직이다 인간을 해할 수도 있다.
그리고 그 전이라도 고도화된 인공지능이 독재자의 손에 넘어간다면?
이런 일에 어쩌나 하는 불안함을 넘어 인류 공생을을 위한 정당한 규제의 필요성을 이야기하면서
AI에 대한 재미보다는 법률과 선언적 문장으로 ⅓ 이상을 채운다.
4강 열려버린 판도라의 상자부터 지루하기 시작한다. AI에 대한 이야기가 아닌 것 같기도 하고. ㅎㅎ

그래도 읽어야겠다는 생각으로 놓지지 않으려 노력했다.
그래도 일부 인용문은 그냥 넘길 수밖에 없었다.
세밀하게 이해하려 노력하지 않았다. 방해요소가 될 것 같은 긴 인용문은 몇 장정도 넘겼다.
읽음에 골치아픈 내 삶의 현실이 겹쳐서 그랬는지도 모른다.
아무튼, 저자는 머리말에서 재미와 전문성을 고려했다고 한다. 전문성을 고려한 부분에 나같은 독자에 대한 사전 핑계성 발언이었던 셈 아닐까 한다.

투자욕심?
그래 투자욕심 때문에 읽으려 했다.
계속 오를 것 같은 이 분야 주식에 관심 가져 보기 전에
인공지능이란 것이 뭔지 알고나 있어야 할 것 같아 그냥 욕심 없이 읽으려 시작했다.

그의 말처럼 지금 무슨 일이 일어나고 있는지를 먼저 알아야 대응하는데 도움이 될 것이다.
부디 AI 리터러시를 높여주기를~

책에서 인상 깊었던 점 두 가지가 있다.
1.개인적으로,
에이전트라는 아이디어를 마빈 민스키의 1986년 책 <마음의 사회>
인공지능을 설명하려는 자료인데 내 복잡한 마음을 이해하는데 도움? 그래 차분하게 생각할 수 있게 나를 다독거렸다. 관련된 책을 사보려했더니 절판이더라.
내 마음을 이런 방식으로 분석할 수 있을 것 같더라.
에이전트라는 아이디어 마빈 민스키 1986 마음의 사회 마음은 에이전트라고 하는 독특하고 간단한 프로세스들이 모여 거대한 조직을 이루고 상호작용한 결과다.  _209

작은 부분(이이전트)들로 구성된 복잡한 사회적구조, 족립적으로 작동, 가자의 역할 수행, 체계적으로 협력 마음의 사회는 계층적 구조
마음은 에이전트라는 독특하고 간단한 프로세스들이 모여 거대한 조직을 이루고 상호작용한 결과다.
사람의 마음은 단일 실체가 아니다.
독립적.분산적.협력.경쟁 관계의 에이전트들 체계적이고 계층적 구조를 가진다.
지능의 힘은… 어떤 단 하나의 완전한 원리가 아니라 우리의 광대한 다양성을 바탕으로 한 것이다.  _211

지식의 선 Knowledge Line: K-Line
아이디어를 얻거나 문제 해결하거나 기억할 만한 경험할 때 지식의 선 형성 – 활성화 되었던 에이전트들과 연결, 계층적으로 연결되며 새로운 경험을 통해 수정확장
지능의 힘은 어쩐 단 하나의 완전한 원리가 아니라 우리의 광대한 다양성을 바탕으로 한 것이다.
자아는 일종의 허구다. _209~211



2.사회적으로,
장기주의/효과적 이타주의/효과적 가속주의의 탈을 쓰고…
선출되지 않은 슈퍼 엘리트들이 인공지능 개발뿐 아니라 사상까지 독점하고 있는 것 아니냐는 저자의 의견이 신선하게 다가온다. 충격적이라고 해야 하나?   _363

삐뚤어진 경쟁이 되지 않도록… 철학, 인류학, 사회학, 인지심리학, 뇌과학, 법학… 모든 부야 연구자들이 머리를 맞대어야 하다. 

너무 거창하게 접근하지 말라 -405쪽 포스코의 접근 

챗GPT에서 늘 잘 먹히는 질문 –158쪽 

AI규제에 대한 찬성과 반대 _241

 


<머리말>
1.거의 모든 SW 어떤 형태로든 인공지능과 연동하는 형태를 갖게 될 것
2.GUI(그래픽 유저 인터페이스) → 맥락 인터페이스
3.쓰는 도구 → 함께하는 도구
4.멀티모달이 기본, 텍스트 + 이미지 + 동영상 + 오디오 등
5.작아지고 빨라지고 저렴해진다. 인간 두뇌 하루 21와트
6.인간형 로봇 휴머노이드의 시간
인공지능의 캄브리아기 시작

 

사실 AI가 뭔지 개념을 잡으려면 1강 걷잡을 수 없는 변화의 물결
-대중은 매스미디어가 탄생함으로써 생겨날 수 있었다. 우리가 쓰기 나름인 게 아니라 각각의 미디어들은 그 본질에 따라 아주 구체적인 변화의 방향을 지시한다. TV 라디오 제작 관행. _22
-인공지능의 방향성
①운영체제로서의 인공지능: 건의 모든 소프트웨어는 인공지능과 연동
②맥락 인터페이스: 계층적 접근(대/중/소분류, 총류/철학/종교...) 키워드 매칭(구글, 네이버 등) ⇨ 맥락 인터페이스Contextual interface 화면을 공유하는 방식으로 맥락을 함께 가져간다.
③파트너로서의 인공지능: 환각Hallucination에 유의하고, 질문을 잘하면 멋진 파트너 도구
④멀티모달Multimoda: 여러 형태의 정보형식. 텍스트/이미지/음성/동영상 등 다른 방식으로 표현된 정보를 함께 처리하거나 활용 ⇨ 음색, 웃음, 노래, 감정까지 학습
문자 정보만으로는 절대로 인공지능을 이룰 수 없다. <얀 르쿤> _41
이런 면에서 네 살배기 어린아이보다 못한 거대언어모델이라고 한다.
⑤더 저렴하게, 더 빠르게 더 작게(Cheaper, Faster, Smaller)
LLM : Small Language Model, 학습 데이터의 질로 접근, On-Device AI ⇨ 속도↑, 개인정보 보호↑, 개인화↑, 개인 에이전트 or 개인 비서
⑥인간형 로봇, 휴머노이드; 몸을 가진 AI
AI+로봇, 유압식→전기식 액추에이터actuator 빠르고 힘센 놈 등장

 

2강부터 거대언어모델 LLM에 대한 이야기를 한다. 대단하다. 그러면서 허점을 이야기한다.
-Central Processing Unit 순차적 계산
-Graphic Processing Unit 병렬로 수많은 계산, + - 같은 실수 계산 특화, 병렬 대용량 계산
-몬테카를로 알고리듬; 정사각형 안 원의 넓이-반지름*반지름*π ⇨ 원에 들어간 점이 차지하는 비율, 대단히 단순 방식, 노가다, 1초에 312조 실수 계산 할 수 있기에 훨씬 빠르다. 이런 GPU 수십 수백 1만대...
-인공지능, 잠재된 패턴을 찾다; 기가막히게 잘 맞히는데 왜 잘맞히는지 인간이 알 수 없다. _80
-Chat Generative Pre-trained Transformer; 거대언어모델LLM-이런 LLM을 1.사전 학습 2.원래 알고 있는 것처럼 답 → 파운데이션 모델Foundation Model 다른 인공지능의 기반이 되는 모델
딥러닝 모델 중 하나인 트랜스포머- 다음 단어가 뭔지 확률적으로 예측 ⇨ 인간의 피드백을 통한 강화학습 ⇨ 질문-프롬프트, 좋은 질문이 좋은 답<온도Temperature 0~1, 0dp 가까울수록 정답 근사치> 온도를 0도로 설정치 않앗고 트랜스포머는 가장 근사한 단어를 찾는 모델이므로, 물을 때마다 조금 다른 답변
학습하는데 3.7조 원 소요
-어려운 일은 잘하고, 쉬운 일은 못한다. 챗GPT를 ‘발견’
잠재된 패턴 없는 곳, 확률이 필요치 않은 분야에 취약-굳이 확률적으로 찾을 피룡 없는 명백한 사실 확인에 생성형 인공지능이 어울리지 않는다. _96
-할루시네이션Hallucination; 멀쩡한 거짓말, 트랜스포머 모델, 5조 개 문서 학습으로 잠재적 패턴을 찾아 주어진 단어를 보고 다음에 올 확률적으로 그럴듯한 단어를 찾으니... 근사치를 문법에 맞는 텍스트 형태로 제공 → 그럴듯하게 → 조작 ⇨ 버그Bug가 아니라 특징Feature _101 ⇨ 교묘한 질문으로 GPT4 공격 가능
-인간의 지능을 넘어서는 지점을 특이점Singularity, 거대언어모델로 절대 가지 못한다.
고공비행기로 달에 가려는 것과 같다. 고도비행 기록을 깰 수 있으나 달에 가는 것은 완전히 다른 접근법을 필요로 한다.” 얀 르쿤 _99
고공비행기로는 달에 갈 수 없다고 한다.

-GPT-4, 느닷없이 나타나는 능력Emergent ability, <스마트폰에 구형 VGA 커넥터를 꽂은 사진 보고 웃기다고 함> 이미지 안 글자를 읽고, 사진을 이해-커넥터의 역사와 기능, 왜 웃긴지 인간의 웃음 포인트를 이해해야 함 _111
-Vector 운반하는데 필요한 것 나타냄, Embedding 데이터 포인트를 다차원 실수 공간에 매핑, 끼워넣다.

 

 

3강 챗GPT의 이면을 이야기한다.
-느닷없이 나타나는 능력; <규모의 법칙> 컴퓨팅 파워*학습데이터 양*매개변수 클수록 인공지능 성능 UP
-생각의 연결고리; 단계적으로 추론하도록 유도하는 질문
-GPT-4, 일반인공지능의 시작? 문제와 답을 함께 외워버린 건가? 변호사 시험 통과한 인공지능이 기본적 상식에 무작위 실패, 아이들은 그런 것을 알기 위해 1고 개의 단어를 읽지 않습니다. 상식을 가르쳐야 할 것... _167
-말하기와 생각하기는 다르다; 거대언어모델은 언어에 대한 좋은 모델이지만, 인간 사고에 대해서는 부로안전한 모델 _169, 형식적 언어 능력 모델로 진지하게 받아들이고 사고 모델링에 필요한 여러 비언어적 인지능력 통합하거나 추가 개발 필요 _170
-작업수행 위해 중간 목표를 만들 경우; 방의 이산화탄소 농도 낮춰줘 ⇉ (그냥)창문 열어 환기/ (위험)이산화탄소 만들어내는 존재를 없앤다면
생물학에서 항상 도움되는 하위 목표! 에너지 획득인 것처럼 로봇이 ‘ 더 많은 전력 얻자’라고 한다면... _173
챗GPT가 도구를 쓴다. Application Programming Interface라는 규약 활용, 수백 개의 서비스 결합 ⇨ 집단지성, 혁신의 용광로
-리눅스가 컴퓨팅 산업의 표준이 된것처럼 오픈소스 AI가 표준이 될 것이다.
1.특정 회사에 종속되지 않고 2.데이터 도용 걱정 덜고 3.비용이 적게 들고 4.자유롭게 파인튜닝 5.집단지성 6.안전성  _189  → 실제 완전한 오픈소스가 아닌 라마, 회사 이름만 오픈AI
-소형화; 자원소비 절약, on-device, 진정한 인간 따라잡기(하루 24와트 사용)
1.고품질 학습 데이터 사용 2.양자화(32bit>16>8, 모바일 사용 가능) 3.지식 증류(거대 모델을 닮도록 조정.학습)
-다중 에이전트 협업(매개변수 10%만 사용 가능), 전문가 조합(전문화와 협업으로 가중치 부여), 멀티 에이전트 이용(여행 일정을 짜고 예약할 경우 → 자연어 이해/테스크 관리/일정 계획/숙박예약/식당예약/교통계획/사용자인터페이스 각각 에이전트)  _209
멀티 에이전트는 인간의 신체나 능력의 확장 주장을 인용한 듯 보인다.   _213
-독점; 별도 파인 튜닝을 하지 않아도 되는 파운데이션 모델이며 제공하는 API로 언제든 답을 받아올 수 잇는 거대언어모델. 느닷없이 나타나는 능력은 컴퓨팅 파워와 학습 데이터 매개변수가 함께 거대한 규모로 커지기에 작은 벤처나 중규모 기업은 ㅠㅠ
-오픈소스; SW코드 공개-레시피공개, 리눅스 슈퍼컴 100% 서버 90%이상, 리눅스기반 안드로이드 70%
집단지성/생산성 향상(남이 짠 거 활용)/보안성(소스 공개→함께 들여다보기에 버그와 취약점 쉽게 개선)/교육과 연구 기여
-양자(量子, Quantum) 물리학에서 ‘최소 단위의 양’ 연속되지 않는 값  _219

 

4강 열려버린 판도라의 상자
AI 오남용? 언젠가는 맞닥뜨릴 세상
-오픈AI; 오픈? 슈퍼 얼라인먼트 팀(윤리개발) 사실상 해체
윤리를 헌법처럼 AI에 각인하고 시작해야 한다는 앤스로픽 - 오픈AI 애초 취지에 불만 품고 나와 세운 회사
MS의 AI 윤리팀 해체
Don’t Look Up  _242
-오리지널의 실종; 웹은 인공지능이 생성한 저품질 콘텐츠로 넘쳐난다.
인공지능이 그린 그림이 많아질수록 인공지능의 성능이 나빠진다. 종의 근친교배. 1.통계적 오차 2.표현력 오차 3.근사 오차차
-구글, 인공지능 윤리 연구자 팀닛 해고, 팀닛의 논문 때문
1.환경적.재정적 비용(전력 소모 → 막대한 탄소 발생 소외 지역 큰 타격)
2.거대언어모델이 이해할 수 없는 모델. 왜곡과 편견. 인터넷 접근 낮고 온라인 영향력 작은 국가와 민족
3.연구의 기회비용, 거대언어모델 외 다른 연구 예산 투입기회…
4.Hallucination 트랜스포머 모델 특성상 환각으로부터 자유롭지 못함

-잠재된 패턴을 찾아 내는 힘을 하는 AI, 잘못된 학습-차별을 재생산
-챗GPT 데이터 학습 사용방식의 문제점
1.맥락 무결성 원칙 위반-전체 공개글이라도 인공지능 학습에 쓸지 확인해야 한다.
2.잊힐 권리 부정확-개인정보 삭제 요청 절차 없다.
3.unlearning의 어려움. 5조 개의 문서 학습, 어디에 어떤 형태로 있는지 알 수 없다.
4.저작권이 있을 수 있다.
5.사용자의 프롬프트를 저장한다. 기밀이 새 나갈 수 있다.

 

5강 신뢰할 수 있는 인공지능, 머리 아프다 구체적인 기술적인 이야기에서 세부적이라는데 윤리 원칙가 법제화에 대한 이야기를 한다.
-독일; 녹서로 공론화해서 백서로 묶어낸다.
-아실로마 AI원칙; 캘리포니아 휴양도시에 전문가 모여 도움되는 인공지능 회의를 열고 원칙 23개 합의
장애투명성: 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
준비되지 않은 가을로 서두르지 말고 긴 AI의 여름을 즐기자
-로마 교황청 윤리적 요구, 유럽연합 인공지능법, 미국 알고리듬 책무법안 2022(네이버 뉴스 사건), G7 히로시마 프로세스, 미 백악관 인공지능 행정명령, 첨단 인공지능의 안전성에 관한 국제과학보고서, MIT 인공지능 위험 저장소(집단지성의 저장소), 캘리포니아 인공지능법 SB 1047(그들은 주州를 국가라 부른다. 캘리포니아주 상원 계류, 이미 합의한 사항이고 규제 폭도 극히 제한적인데 법으로 규정하는 것을 반대한다. 설득력 떨어지는 반대파 의견)
-슈퍼 엘리트들; 실리콘 밸리의 팽배한 기조-빠르게 행동하고 나중에 용서를 구하자(구글 슈미트), 윤리의식 없는 콘텐츠 게시하는 일런 머스크 등 거대 인공지능 사실상 독점
-장기주의, 효과적 이타주의, 효과적 가속주의
장기주의: 미래 인류에 긍정적 영향을 미치는 것이 우리 시대 핵심적 도덕적 우선순위다-기후 위기는 가능성이 낮다고 평가하고 있음
효과적 이타주의: 가장 시급한 문제와 최선의 해결책
효과적 가속주의: 기술변화와 기타 사회변화를 통해 기존 사회를 불안정하게 해 급진적으로 사회변화. 테크노 낙관주의-유토피아적 색조, 인공지능 무제한 개발과 경쟁이 바람직하다.
⇨ 엘리트 대학과 실리콘밸리에 가장 영향력 있는 이데올로기 중 하나
거대 인공지능 개발 독점, 선출되지 않은 슈퍼 엘리트들이 인공지능개뱔 독점 뿐아니라 사상 까지 독점?
인류를 단일 종으로 간주, 사람 생명을 단순 숫자로 비교하는 접근-히틀러, 지구상 모든 사람 실시간 감시시스템 도입 의견, 국가 실존적 재앙 피하기 위해 선제적 폭력/전쟁 사용, 트랜스 휴머니즘-우주로 나가 식민지 건설(일론 머스크, 포스트 휴먼-기계와 결합, 유전자 조작한 진화한 인간)

 

6강 우리 사회 대응
하지 말아야 할 일과 해야 할 일은 같은 것이다.
-공공데이터에 인터오퍼러블interoperable 호환성 없다.
우리나라 정부 자료는 hwp, pdf 포맷 - 컴퓨터가 자동으로 처리(읽지)하지 못한다.
국세정보를 심지어 지방자치단체에서도 활용하지 못한다.
시장을 외면한 암호화 도구(공인인증서 고집)
-R&D예산 삭감, 자격증과 학과 신설로 끝나는 게 아니다. 인공지능학과가 아닌 기초과학 -물리학. 화학. 수학. 생물학 등-에서 나온다.
-전문가들의 지식을 최대 반영할 수 있는 통로가 마련돼야 한다.
-공무원은 전문가들과 협업, 함께 집단지성을 일구는 법을 배워야 한다.
-눈 떠보니 선진국- 그사이 빠트린 것이 많다. 대표적으로 원천기술/기초과학학

인공지능에 많은 데이터(돈)와 시간이 필요 - 후발 주자의 경우 협업 필요 - 포스코, 인트플로우, 보스턴시 등의 사례 → 거대언어모델이 아닌 머신러닝이 더 적합한 경우가 많다.
제조 강국 대한민국 AI+X의 큰 기회가 있을 것이다.  _405

'후니의 책가방' 카테고리의 다른 글

채식주의자  (0) 2025.02.14
소년이 온다  (0) 2025.01.31
대한경제부흥회, 우리는 왜 돈을 못버는가~*  (0) 2025.01.12
맡겨진 소녀  (1) 2024.12.08
참을 수 없는 존재의 가벼움 X2: 창조적 신화 읽기  (3) 2024.11.14