최근에 llm분야에서 패러다임 쉬프팅 하는 논문들 거의 대부분이 대규모 연구팀 소속이 대부분인데,
전통으로 랩실에서 연구하는 사람들 중에서 이정도 폼 내는 사람들 없는것 같음.
Flash attention, Mamba 진짜 한 파문이라고 할만한 분야를 박사때 다 창조해냄.
최근에 나온 HNet 도 진짜 패러다임 쉬프트라고 생각하고.
이 사람들 만큼 가슴 뜨겁게 하는 연구자들이 llm분야에서는 크게 없다고 봄
카카오 계정과 연동하여 게시글에 달린 댓글 알람, 소식등을 빠르게 받아보세요
댓글 13개
2025.09.14
Remote Sensing 쪽 사람이지만 컴싸 프론티어 모델이나 연구에 관심많아서 항상 주의깊게 논문 캐치업 하는 사람인데 Mamba가 그렇게 파문을 할정도로 지금 뭐 연구가 되는게 있어?? 진짜 몰라서 물어보는거야. 왜냐하면 요즘 모든 도메인에서 너도 나도 트랜스포머 모델 쓰고 있는데 나도 트포나 하이브리드 트포 쓰다가 다른 모델 쓸려고 맘바쪽 계속 공부하고 뒤져보는데 딱히 그럴듯한 연구가 아직 우리 도메인엔 없어서.
대댓글 3개
2025.09.15
누적 신고가 20개 이상인 사용자입니다.
재네가 flash attention 만듬...
2025.09.15
지금 어플리케이션 관련 논문들 보면 개나소나 트랜스포머 넣을 곳에 맘바 끼워넣고 탑티어 저널 보내고 있음. 님 분야에 없으면 츄라이 하셈. 동역학 베이스여서 글만좀 치면 걍 올라감
2025.09.16
...'항상 주의깊게 보며'와 '파문일 정도로 뭐 연구가 되는게 있어?' 라는 정반대의 단어가 매칭이 되는게 맞냐? 아니면 글작성 태도가 이수준으로 띠껍게 쓰는거냐;; 일단 Dao AI Lab은 확실히 글로벌 네임드이고, deepseek과의 연계도 찾아보고 확인함...
2025.09.15
난 SSM 은 아직까지 조금 회의적인 입장이긴함.
그래도 저 두 교수는 ㄹㅇ rising star
2025.09.15
ㅋㅋ진짜 식견좁은글
2025.09.16
Dao AI lab은 전설이지..
대댓글 1개
2025.09.16
Dao AI Lab이랑 DeepSeek 이 2곳에서 쓰는 코드 보면, 나도 모르게 감동의 눈물이 나옴
2025.09.17
플래시어텐션 코드는 진짜 감동적인 수준 심지어 깃허브에 질문올리면 교수님이 직접 답변달아줌..
2025.09.18
mamba 는 별로 promising 해보이지 않음.. 왜 계속 그연구 하는지 잘 모르겠긴 함.. 물론 딸깍충들에 비해 훨씬 의미있는 연구 하는 교수같긴 함
대댓글 1개
2025.09.19
Qwen Next, Phi 등 요즘 생각보다 많은 모델들에서 mamba 베이스 모델들 많이 섞고 있음. 이제 실험단계에서 상용화로 넘어가는중이라고 생각해요.
2025.09.19
패러다임 쉬프트란 말을 좀 남발하시는거 아님?
2025.09.23
우리나라 성대 박호건 교수는 어떠냐? 친구였는데ㅎ 20살 때 단어 입력 노가다 시절부터 하던데. 하는거 보고 토하는줄 알았음 노가다가 너무 심해서. IBM이후에 성대 교수로 왔던대. 그대들의 평가로는 교수로 쓸만한가?
2025.09.14
대댓글 3개
2025.09.15
2025.09.15
2025.09.16
2025.09.15
2025.09.15
2025.09.16
대댓글 1개
2025.09.16
2025.09.17
2025.09.18
대댓글 1개
2025.09.19
2025.09.19
2025.09.23