카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

가장 핫한 댓글은?

다른분야에서 논문을 쓰는 연구자로써 챗 gpt는 상당히 놀라웠다.

겁먹은 존 롤스*

누적 신고가 20개 이상인 사용자입니다.

2023.02.21

23

10635


현재 상위저널에 논문을 투고했다 1리젝 1리비 맞고 리젝당해서 코멘트 참고해 다시 투고하기위해 논문을 찾던 중
여기서도 챗봇 얘기가 나오길래, 과연 어느수준으로 도움이 되길래 계속 얘기가 나오는지 궁금해져서 검색해봄


결과는 상당히 놀라웠음. 내가 여러 논문들을 뒤적여가며 정립한 내용을 단순히 please explain the ~~~ growth process라고 치자마자
서술의 차이는 있었지만 틀린 내용 없이 장문으로 기승전결로 나오더라

어쨋든 나는 관련분야를 전공한 입장으로써 알고있는 내용이긴 했고, 특정 분야에서는 잘못된 내용이나 잘 나오지 않을수도 있겠지만
최소한 이번에 내가 검색하고 확인한 답변은 조금만 다듬으면 바로 intro에 부분적으로 때려 박을수도 있겠다 싶은 수준으로 나옴

논문들처럼 citation이 없어 내용전개의 신뢰성을 의심할 수는 있겠지만
이처럼 간단하게 검색하고, 짧은시간만에 정확한 정보를 논리정연하게 얻을 수 있다는 점에서 상당히 놀라운 일이었음
(이거 표절 피하기용으로 꽤 쓸만할지도..?)

다만 출처 및 관련 논문을 알려달라는 질문에는 굉장히 높은 확률로 제대로 작동하지 않음
이에 대한 내 경험을 설명하자면

1. 답변에 대한 출처를 알려달라고 했을때, 제목 [ㅁㅁㅁㅁ] 이고 저자 [김, 나, 박, 이] 이 [A저널] 에 게재했다고 함
2, 제목, 인용 등으로 검색하니 논문이 안나와, 링크 알려줘 하니 [A 링크] 줌. not found 뜸
3. 더 자세한 정보 알려달라고 하니 [doi ~~~) 줌. 작동 안함
4. 다시 링크 알려달라고 하니 [B 링크] 줌. not found거나 다른 논문이 연결됨
5. [ㅁㅁㅁㅁ]논문 있는거 맞아? 라고 물어봤더니 다시 찾아보니 없는 논문이라고 답변함

즉, 교차검증 없이 그냥 던진 인용문헌을 가져다 쓰면 개쪽당할 수 있다는 얘기고
주장하는 얘기 자체가 잘못됐을 가능성을 전혀 배제할 수가 없음.
출처라고 주는게 존재하지도 않는 문헌에 잘못된 오류들인데 어떻게 답변을 신뢰할 수 있겠음?

따라서 약간 "요즘 유튜브" 느낌임. 정보들을 다 모아 요약해서 빠르게 알려주긴 하는데 그 신뢰성이나 출처가 전혀 신뢰되지 않음


++ 평가를 안좋은 쪽으로 좀 수정하겠음
이거 문제가 위 내용에서 연결되는데 단순히 잘못된 정보를 주는것이 아닌 "굉장히 그럴싸하게 포장된" 틀린 정보를 전달함.
연구를 하는 입장에서 모르거나, 애매하게 아는사람이 사용할 시 굉장히 안좋은 버릇이 들 수 있을거같음

특정 분야 또는 추측하는 내용과 관련된 논문을 알려달라고 했을 때 정말 "그럴싸한 제목만 가진" 모든게 틀린 논문을 제안함
몇시간동안 건드려봤는데 "정확한 논문을 제시하는 경우가 단 한번도 없음"

이걸 연구용으로 사용하기엔 현재로써는 안될듯. 단점이 너무 치명적임

카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

댓글 23개

IF : 1

2023.02.21

없는 논문이면 연구주제가 될 수도 있는거 아닌가요?

대댓글 1개

겁먹은 존 롤스작성자*

2023.02.21

답변에 대한 출처를 알려달라고 했는데, 논문이 없다는 얘기는 연구주제가 될 수도 있는게 문제가 아니라
그 답변 자체에 대한 신뢰성이 급격하게 떨어지는 것임. 이걸 보고 연구주제를 정한다는건 말이 안됨

또한 이런 문제점이 있다는 것은, 챗봇으로 얻어지는 정보에 대해 교차검증이나, 본인이 정보의 옳고 그름을 판단할 수 있어야 한다는 것임
> 이를 교차검증하기 위해 출처를 알려달라고 한건데 그 출처가 없음.
> 더 나아가, 있는것처럼 논문 제목, 저자, 저널 및 DOI까지 제공을 하는데 다 없거나 잘못됨(다른 논문으로 연결함)


내가 지금 계속 이걸 건드려보고 있는건 이 자체로 받아들이기 보다는, 이걸 이용해 방향을 찾을 수 있기 때문임

예를들어, 내 분야는 나노입자 합성임. 이걸로 챗봇을 활용하자면
만약 내가 전혀 지식이 없는데, 알아내야 할 정보가 있음. 그러면 이걸 일단 검색하는거임

나노입자의 핵 형성 방법의 종류를 알려줘
> 고전적인 핵 형성방법과 비고전적인 핵 형성방법이 있고, 얘네는 각각 ~~~ 단계로 이루어진다

그렇다면 나는 이 정보들을 google scholar에 검색해 교차 검증을 하는거임.
스칼라를 써본 사람들은 알겠지만, 데이터가 굉장히 방대하기에 정확한 키워드를 넣지 않으면 진짜 개판으로 나옴

이 챗봇은 본인이 잘 모르는 분야에 핵심적인 키워드를 던져주거나, 혹은 알고있는 내용을 다시한번 확인하는 용도로 쓰기에 적절함


따라서 내 평가로는 현재 단계에서는 쌩 베이스없는 연구자가 활용하기엔 상당히 위험한 도구가 될 수 있음.
이 정보를 바탕으로 연구주제를 정했다가 나중에 이미 예전에 보고된 논문이 튀어나올 수 있고
(출처 논문이 없다는뜻은 그 주제가 없다는게 아니라 링크나 제목 등이 잘못됐다는 얘기임. 비슷한거 널렸음)

애초에 그 근거 자체가 잘못되었을 가능성을 배제할 수 없기 때문임

2023.02.21

요즘 유튜브 느낌, 딱 적절한 비유 같아요.
정리는 잘 하는데 어떤 데이터를 참조했는가에 따라 결과는 천차만별인 듯.
아직까지 원본 데이터에 대한 신뢰도를 엄밀하게 측정하는 기능은 갖추지 못한 것으로 보여요.
가짜 데이터를 참조하면 거짓말도 술술 잘 하더라고요. ㅎㅎ

2023.02.21

발전된 자동 나무위키 같은 느낌이라고 생각

2023.02.21

문법 교정, 패러프레이징, 문장 다듬기 용으로 최고 나머지 용도로는 쓰지 않음

2023.02.21

쳇GPT가 인터넷 정보를 학습해 나온거니 당연하죠 뭐. 그래도 검색엔진 대용으로 좋은 것 같더라고요

대댓글 1개

겁먹은 존 롤스작성자*

2023.02.21

게재됐거나 연관된 논문을 요청했을 때 좀 다르더라도 있는 논문을 가져오면 문제가 안되고 좀 더 발전하면 괜찮아지겠지 할텐데
전혀 일치하지 않고, 있지도 않은 제목을 그럴싸하게 꾸며내고 저자랑 링크, DOI를 다 가져오니 (없거나 매칭이 안됨)

단순히 인터넷 정보를 학습하는 수준이 아니라 잘못된 정보를 생산하는 개념이 있어보임. 문제가 있음
가장 치명적이고, 연구자가 사용할 수 없는 단점임
덤덤한 레프 톨스토이*

2023.02.21

딱 말 잘하는 멍청이라고 생각하면 되지요. 분량 늘리기용으로 미사여구 붙일 때 좋은 것 같고... 거기서 나온 결과를 진위여부 확인도 안하고 가져다쓰는 사람은 설마 있겠나 싶습니다 본인 연구인데...

2023.02.21

저도 어제 chatGPT한테 논문 추천받았다가 한 시간을 뒤져도 안나왔는데 ㅋㅋㅋ 저 같은 사람 또 있었네요.. 근데 그 논문 초록이나 결론 가져오라면 또 가져오더라고요? 실제 있는 사람을 저자로 넣기도 하고 실제 논문 인용도 함.. 여러모로 대단하네요

대댓글 1개

2023.02.23

완전 저도 그랬는데 ㅋㅋㅋㅋㅋ
밝은 로버트 보일*

2023.02.21

논문은 항상 없는 논문을 만들어서 알려주더만.

2023.02.21

AI수준에선 아직 사실여부 파악하는 지능을 기대하기 어렵습니다. 원하신다면 추가적인 조건들을 달아보세요.

2023.02.21

언어모델이니 언어용으로만 쓰세요. 논문 교정, 코딩 등

2023.02.21

그거 반드시 있는 논문으로만 찾아달라고 해야 나와요. 요구를 구체적으로 하고 제약사항 다 걸어야 합니다. 그리고 검색기능도 없는것 같습니다.

대댓글 2개

2023.02.21

저는 ㅇㅇㅇ 주제에 대해 'real reference'만 알려달라니까 있는 논문들 나오더군요. 그 제약 걸기 전까지는 두서너개 빼고 나머지는 창작이었습니다.
겁먹은 존 롤스작성자*

2023.02.22

제안해준 그 여러가지 제약을 몇시간동안 건드리면서 해봤는데 (real, correct, not fake등) 정확한 논문이 단 한번도 나오지 않움...

2023.02.22

논문 출처도 학습해서 저자랑 제목까지 자기가 작성해서 알려주는것 같음 ㅋㅋ

2023.02.22

마소에서 chat gpt 업글해서 나오는 버전은 인용문 기반으로 나오는데 그게 진또배기일것 같더라

2023.02.22

AI 공포심 있는 단체에서 작정하고 온라인 상에 잘못된 정보들 무한 업로드 시켜서 학습하게 만들면 볼만할 듯.
오만한 피보나치*

2023.02.22

저도 신기해서 몇번 활용해봤는데 관련 레퍼런스도 제공해달라고 지시하면 맞는 내용 잘 주던데요? 물론 글쓴이분 말씀대로 교차 검증 할 수 있는 기본 지식을 갖춘 연구자가 활용해야 될 것 같긴 해요. 저는 간편한 검색 엔진 정도로 생각하고 있어요.

2023.02.23

글 다듬기, 글쓰기, 코딩, 개념어 질문 등은 유용한듯요. 그 외 연구에 있어 심도깊은 아이디어 토의나, 팩트체크/검증 등은 불가한듯

2023.08.08

누적 신고가 20개 이상인 사용자입니다.

ChatGPT를 검색으로 쓰는거 자체가 틀린 접근임. 검색은 Extractive한 기법으로, 기존에 있는 문서에서 답을 찾는 분야이고, ChatGPT는 생성형 알고리즘이기 때문에 정답이 없는 질문에 활용하는게 좋습니다.

2024.06.25

아시다시피 생성형ai, 지피티의 본질은 학습 데이터랑 비슷한 거를 만들어주는 거죠. 그래서 설명 해달라하면 학습데이터(예, 논문)와 비슷하게 설명을 해주고, 레퍼런스 또한 비슷하게 만들어주는 거죠. 사용분야가 잘못 되었달까요.

레퍼런스 찾으려면 실제 출처/링크를 제공해주는 구글 제미나이 혹은 perplexity가 좋습니다. 다만 말해주는 설명은 지피티가 더 좋습니다.

댓글쓰기

게시판 목록으로 돌아가기

반도체/AI 게시판에서 핫한 인기글은?

반도체/AI 게시판에서 최근 댓글이 많이 달린 글

🔥 시선집중 핫한 인기글

최근 댓글이 많이 달린 글