카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

가장 핫한 댓글은?

이번 CVPR 저자 예전에도 다른데에서 베껴온게 있었네요

2022.06.29

13

5277

출처: 서울대 에타 (https://everytime.kr/381619/v/258139000)

Dongjin Lee, Seongsik Park, Jongwan Kim, Wuhyeong Doh, Sungroh Yoon (2021)
Energy-efficient Knowledge Distillation for Spiking Neural Networks
2021년에 나온 논문이고 어느 학회까지 나간건지는 모르겠습니다.

베껴온 논문들은 이것들입니다.
- Xiao Jin et al. (2019) Knowledge Distillation via Route Constrained Optimization
- J. Gou et al. (2020) Knowledge Distillation: A Survey

논문 다운받아서 몇문장 검색해보니까 다른 부분에서는 표절 흔적이 잘 안보이는데 사진에서 색칠해놓은 부분은 꽤 비슷하게 가져왔네요.
원글에는 사진이 한개 더 있던데 그쪽은 레퍼런스 달고 가져온거라 좀 애매합니다.

카카오 계정과 연동하여 게시글에 달린
댓글 알람, 소식등을 빠르게 받아보세요

댓글 13개

다정한 칼 세이건*

2022.06.29

그냥 본인이 참조한거 바탕으로 새로 라이팅하면 될텐데
왜 저러는 걸까요??
이거 때문에 다른 학생들도 괜히 심란하고 어이가 없네요

대댓글 1개

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

바보같은 프랜시스 크릭*

2022.06.29

사실 복붙(혹은 비스무리 하게 작성한 부분)에 레퍼런스만 잘 달아줬어도 욕은 덜 먹었을텐데 말이죠

대댓글 3개

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

성실한 비트겐슈타인*

2022.06.29

같은 랩실 다른 학생들도 저리 표절한 걸 보니..
해당 행위들이 문제라고 인지하지 않게 만드는 연구실 관습에서 나온 것일 수도 있겠네요 "이렇게 해도 되더라.."
아무리 본인이 청렴결백하고 하더라도 근묵자흑이라고.. 먹 옆에 있으면 검게 물들게 되죠

대댓글 1개

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

해당 댓글을 보려면 로그인이 필요합니다. 로그인하기

댓글쓰기

게시판 목록으로 돌아가기

김박사넷의 새로운 거인, 인공지능 김GPT가 추천하는 게시물로 더 멀리 바라보세요.