의외로 블로그와 유튜브는 챗봇의 시대에 더 살아남을 수 있다. GPT의 경우 자신이 대답한 것에 대해 아직 정확한 근거자료(링크)를 제시하지 못하지만 검색엔진에 챗봇이 결합되는 형태들은 검색 결과를 보여주고, 챗봇이 이에 대한 의견을 주며, 다시 의견에 대한 근거를 링크로 제시하고 있다.

 

이렇게 되면 근거자료가 될 수 있는 블로그와 영상은 더 많이 노출될 수 있다. 아무리 영리한 챗봇이라도 근거 없는 주장은 신뢰성 문제가 있기에 당분간 블로그와 유튜브는 더 살아남을 것으로 보인다.

 

뉴스와 책은 어떨까? 궁금한 사항에 대해 챗봇에게 오늘의 뉴스를 묻고, 더 깊은 내용을 질문하게 된다. 따라서 가짜뉴스를 검증하는 데 있어 챗봇은 효과적으로 쓰일 수 있다.

 

책 역시 마찬가지다. 질문을 통해 책을 모두 읽지 않아도 책 내용을 알 수 있게 된다. 물론 이는 제대로 정보를 접하는 방식이 아니지만 바쁜 현대인들에게는 편리한 수단이 될 수 있다.

--이임복의 [GPT 질문하는 인간, 답하는 AI] 중에서!!

▼▼

https://bitl.bz/OaMzF6

 

챗GPT 질문하는 인간, 답하는 AI

 

deg.kr

https://bitl.bz/aeKUlY

 

챗GPT /마침내 찾아온 특이점

 

deg.kr

 

인간은 실수를 하더라도 같은 실수를 계속 무한 반복하지는 않잖아요? 그러나 자율주행은 특정한 도로상황에서 에러가 발생한 경우, 같은 알고리즘을 탑재한 자동차들은 같은 상황에서 계속 에러를 반복할 위험이 있습니다.

 

자율주행 자동차가 사고를 낸 원인을 파악하기 어렵다고 했는데, 그것이 현재의 인공지능 기술의 가장 큰 문제인 설명 불가능성의 문제입니다.

 

기존의 전통적 컴퓨터 프로그래밍이나 엔지니어링에서는 에러나 고장의 원인을 설명할 수 있습니다. 이것들은 설계자가 원리를 이해하고 그 원리에 바탕을 두고 답을 내는 방식이기 때문입니다.

 

그러나 머신러닝이니 딥러닝이니 하는 인공지능 기술은 원리를 모르고, 마치 기출문제를 엄청나게 풀어 거기서 비슷한 패턴을 찾아 맞추는 식으로 문제를 해결합니다. 워낙에 방대한 데이터로부터 패턴을 찾아서 확률적인 답을 내놓기 때문에, 답이 나와도 왜 그 답이 나왔는지 알기가 힘듭니다.

 

설명 불가능성의 문제가 그냥 좀 틀려도 되는 문제에서 발생한 것이라면 괜찮습니다. 애플의 시리가 이상한 소리를 좀 한다고 큰일나는 것은 아니고, 인공지능으로 내 취향과 영 안 맞는 이상한 상품을 추천한다고 해서 큰일나는 것도 아니니까요.

 

이런 에러를 가끔 내는 걸 감안해도, 평균적으로는 효용이 분명히 있기 때문에 인공지능 기반 서비스를 계속 쓰게 됩니다.

 

그런데 자율주행의 경우에는 이런 에러가 나면 자칫 생명을 잃을 수도 있고, 사고 후에도 원인조차 설명하기 힘듭니다. 바로 이 설명 불가능성의 문제는 현재 인공지능 규제정책 및 윤리적 쟁점에서 아주 핵심이 되는 핫 이슈입니다.

 

사실 인공지능의 설명 불가능성의 문제는 굉장히 풀기 힘든 문제이고, 자율주행 뿐만 아니라 두고두고 여러 곳에서 문제가 될 것 같습니다. 인공지능이 바둑이야 이기든 지든 큰 문제가 아니지만, 운전을 잘하느냐 못하느냐는 죽고사는 문제이니까요.

 

아주 사소한 문제도 증폭되면 대형사고로 이어질 가능성이 얼마든지 존재하니까요.

--남충현,하승주의 [4차산업혁명, 당신이 놓치는 12가지 질문] 중에서!!

▼▼

https://bitl.bz/Dk4QGP

 

[보리보리/이노플리아]4차 산업혁명 당신이 놓치는 12가지 질문 (4차 산업혁명 핵심 쟁점 총정리)

 

deg.kr

 

https://deg.kr/48b3c72

 

라비고 각도조절 리클라이너 릴렉스체어

 

deg.kr

--4단계 등받이 각도조절 OK~^^

--알루미늄 우드 코팅 소재~♪♬

--리얼 우드 4.5cm 팔걸이, 51cm 와이드 시트, 탈착식 6cm 목쿠션,

옥스포드 600D 시트, 등받이 수납공간, 휴대용 파우치까지~♪♬

 
 
LIST

+ Recent posts