티스토리 뷰

1. 개요

최근에 들어 대화형 인공지능 챗봇이 큰 화두가 되었다.
인스타그램 / 페이스북 / 틱톡과 같은 앱보다 훨씬 가파른 속도로 이용률이 상승 중이다.
얼리어답터는 아니지만, 몇 가지 사용해보면서 LLMs을 일부 활용해서 논문 문장 작성 후기를 남긴다.

2. Chat GPT
링크: https://chat.openai.com/chat

 

2021년까지의 인터넷에 돌아다니는 방대한 량의 데이터를 학습한 챗봇인데, 내가 질문을 올리면 거기에 맞춰 답변을 준다.
물론, "신뢰도를 100% 보장할 수 없다." 그냥 대답을 할 뿐이다.
예전에 보았던 신의탑웹툰이 떠오르는 한 장면이다. @_@


3. Revising Scientific Paper Language

- 논조를 권위적으로 바꿔주면서, 신뢰를 주는 효과를 가져온다.

- 몇 가지 테스트를 해봤는데, 내 문장의 배열을 바꿔주면서 조금 더 주장하는 톤으로 바꿔주는 것을 알았다.

- 내 머릿속에 굳어진 여러 문장 표현들을 바꿔서 신선하다라는 느낌은 들었던 것 같다.

- 마치 번역기를 처음 이용할 때와 같은 느낌이었다. 새롭게 완성된 문장이 이상해서 살펴보면, 내 원래의 영어 문장에 문제가 있는 경우를 종종 발견할 수 있었다.

 

Chatbot을 이용하면 좌측에 "Revising ~"이라는 카테고리로 내 질문이 분류화되서 기록 로그가 남게된다.

4. Limitations

- 보안과 데이터 관리

  ➔ 당연하게도 보안에 민감하거나 / 출판 전에 공개되면 안되는 것들은 활용 할 수 없다.

  ➔ 내가 입력한 데이터가 또다른 챗봇의 학습 데이터로써 활용될 수 있고, 나의 흔적들이 어디에 저장되는지 알 수 없다.

- 정보의 신뢰성

  ➔ 지식에 대한 정보를 얻는 원천으로 삼으면 큰 문제가 될 수 있다. 보다 신뢰성 있는 자료 출처로 부터 기반해야 한다.

- 표절/창작

  ➔ 최근에 AI가 그린 그림이 우승을 해서 논란이 된적이 있다. 마찬가지의 문제를 가져온다.

  ➔ 내가 작성한 문장이라고 할 수 있는가? 나의 창작물인 것인가 아니면 기계가 저작권을 가져아 하는 것인가?

 

 

잠정적인 결론: 한번쯤 흥미롭게 이용해볼만하나, 권하고 싶지는 않다. 인공지능이 사람을 대체할 수 없어보인다.

또한번 정도(正道)를 걸어야 함을 느꼈다.

내가 생각한 올바른 길이란,

 (1) 양질의 논문을 직접 내가 선별하여, 계속계속 읽는다.

 (2) 그것들을 바탕으로 스스로 공부하고 내 문장력을 스스로 다듬는다.

 

 편함에 기대어 게을러지고 있다면, 그것은 연구자로써 적절치 못하다.

(심지어 블로그를 작성하는 시각 기준, ChatGPT 이용자가 너무 많아서 그런지 서버 마저 터져버린 것 같다. @_@)

 

5. 읽어볼만한 링크

LLMs 사용에 주의를 기하는 몇 가지 비평이 있어 가져와보았다.

 

- https://www.deeplearning.ai/the-batch/issue-174/

 

ChatGPT Mania!, Crypto Fiasco Defunds AI Safety, Alexa Tells Bedtime Stories

One of the dangers of large language models (LLMs) is that they can confidently make assertions that are blatantly false. This raises worries that...

www.deeplearning.ai

- https://www.wired.com/story/large-language-models-critique/

 

ChatGPT, Galactica, and the Progress Trap

When large language models fall short, the consequences can be serious. Why is it so hard to acknowledge that?

www.wired.com

 

오늘의 짧은 일기 끝.