👤 익명 1
콘텐츠 제목 |
NLP 맛보기(Text Summarization Series)— 추출 요약1 편 |
피어 리뷰 결과 |
통과 |
콘텐츠의 장점 |
- 더 깊게 공부해보고 싶은 사람들을 위해 다양한 추가 reference를 제공한 것이 좋았습니다. |
- 이론뿐만 아니라 예제 구현을 통해서 결과를 보여준 것도 장점이라고 생각합니다. |
| 개선할 점
(부연 설명이 필요한 부분, 줄여야 할 부분) | 2-2. TextRank
- 링크로 걸어주신 추가 자료들에 설명이 잘 나와있긴 하지만, PageRank 수식 (노드의 중요도 계산) 정도는 부연설명이 더 있어도 좋을 것 같습니다. $V_i$에 input으로 연결된 각각의 노드 $V_j$에 대해 $V_j$의 중요도를 outdegree로 나누어 더해준다거나, 노드 $V_j$의 중요도가 output으로 연결된 노드들에 나누어져 영향을 준다거나...?
- 문장 사이의 유사도를 계산하여 유사도 행렬을 만드는 과정 이후, 이 행렬이 그래프의 인접행렬이 된다거나, 문장을 노드로 하고 유사도를 엣지로 하는 그래프를 만든다는 설명이 한 마디 있으면 더 매끄러울 것으로 보입니다.
- 문장 그래프 생성 이후 각 노드의 중요도를 평가하는 과정에 PageRank 알고리즘을 사용한다는 이야기를 간단하게 추가하셔도 좋을 듯 합니다.
- DivRank 수식도 부연 설명이 추가되면 이해하기가 더 좋을 것 같습니다.
2-3. Metric
- ROUGE metric을 설명할 때 gold/reference summary와 model/system summary를 혼용하고 있어서, 한쪽으로 통일하는 것이 깔끔해 보입니다.
- Rouge recall, Rouge precision의 수식 설명에서 ‘A분의 B’ 라고 하는 것보다는 ‘B를 A로 나눈 것’ 이라고 하는 게 더 직관적이지 않을까 싶습니다. |
| 이슈가 되는 부분
(저작권, 윤리적 이슈 등) | |
| 사소하지만 개선되면 좋은 부분 | 가독성 관련
- 본문의 중요 키워드를 볼드체나 밑줄로 강조하면 중요한 키워드를 파악하기가 더 쉬울 것 같습니다. (2-3에서 ROUGE-Recall, ROUGE-Precision 표시했던 것처럼...)
- 목차 부분에서도 큰 챕터(1, 2, ...)를 강조하거나 작은 챕터(1-1, 1-2, ...) 항목을 들여쓰면 전체적인 구조가 잘 드러날 것 같습니다.
- (미디엄 플랫폼에서 지원되는지는 모르겠지만) 코드 블록에 syntax highlighting이 되어 있으면 좋을 듯 합니다. |
| 느낀 점 | NLP 쪽은 잘 몰라서 학습자의 관점에서 글을 읽었는데, 설명이 잘 되어있어서 text summarization에 대해서 조금은 알게 되었습니다. 후속 콘텐츠에서 소개해주실 neural network를 사용한 요약 방법이나 생성 요약 방식들도 궁금해지네요! 좋은 컨텐츠 감사합니다🙂 |
👤 익명 2
콘텐츠 제목 |
NLP 맛보기(Text Summarization Series)— 추출 요약1 편 |
피어 리뷰 결과 |
통과 |
콘텐츠의 장점 |
- 문서 요약 방법들을 활용하여 법률 데이터를 누구나 쉽게 이해할 수 있는 요약문으로 만들 수 있다라는 구체적인 결과물이 제시되어 흥미를 일으킴 |
- 처음보는 사람도 쉽게 이해할 수 있도록 구성
- 추가적으로 알면 좋은 내용들의 링크가 포함되어있는 부분 |
| 개선할 점
(부연 설명이 필요한 부분, 줄여야 할 부분) | - 시리즈로 구성된 콘텐츠기 때문에 다음편에 어떤 내용이 나올지 하단에 간략하게라도 설명이 들어가면 좋을 것 같음
- 한문장이 길다는 느낌이 드는 부분이 존재(ex.예를 들어, 내용이 긴 글에 대해서 해당 원문을 다 읽지 않고 원문의 핵심정보만을 가지고 있는 요약문을 통해서 짧은 시간 내에 원래 문서의 중요한 내용을 이해할 수 있게끔 도와준다거나 전문 용어가 가득한 문서를 비전문가도 쉽게 이해할 수 있도록 하는 요약문을 만드는 등의 도움을 줄 수 있을것입니다.) |
| 이슈가 되는 부분
(저작권, 윤리적 이슈 등) | TextRank 논문에서 제시한 유사도 방식과 cosine 유사도방식 비교 부분 사진은 출처가 없는 작성자분께서 만드신 것인지 체크 필요 |
| 사소하지만 개선되면 좋은 부분 | Graph ranking or graph ranking 통일 |
| 느낀 점 | 전반적으로 내용이 깔끔하고 흥미를 유발시켰던 것 같습니다. 처음 보는 사람들도 쉽게 이해할 수 있도록 작성되어있고 그럼에도 부족한 부분들은 링크를 첨부해주셔서 추가적은 공부할 수 있도록 구성된 점이 좋았습니다. |
👤 익명 3
콘텐츠 제목 |
NLP 맛보기(Text Summarization Series)— 추출 요약1 편 |
피어 리뷰 결과 |
조건부 통과 |
콘텐츠의 장점 |
내용과 구성이 좋습니다. 단계를 잘게 나누어 놔서 흐름을 따라가기 쉽고 내용면에서 입문자 눈높이에 맞춰져 있어서 좋았습니다. 내용에 대해서는 개선을 바라는 점이 적습니다. |
개선할 점 |
|
(부연 설명이 필요한 부분, 줄여야 할 부분) |
문장력이 많이 아쉽습니다. |
아래에 자세히 쓰겠지만 잘/ 이 / 것 / ~에 대해서 같은 부사, 조사 사용을 자제하고 |
|
비문, 영어 단어 표현 일관성 지키기 등 전체적으로 검토하면 좋겠습니다. |
|
이슈가 되는 부분 |
|
(저작권, 윤리적 이슈 등) |
없어보입니다. |
사소하지만 개선되면 좋은 부분 |
아래에 자세히 적겠습니다. |
느낀 점 |
계획한 시리즈물이 완성되면 요약 task를 익히는데 효과적인 자료가 되리라 생각합니다. |
긴 호흡으로 계획하셨는데 끝까지 완수하시면 좋겠습니다. |
|
서문 가다듬기
서문이 글에서 가장 중요하다고 생각합니다.
서문의 세 문장 시작 부분을 가져왔는데 “이 콘텐츠는 무얼 다룰 것이다”가 세 번 나와서 이상합니다. 1번 헤더에서도 또 나오고요. 정돈하면 좋겠습니다.
이 콘텐츠는 ~~~
해당 콘텐츠는 ~~~
이번 글에서는 ~~~
“대해서”가 많다. 대부분 생략할 수 있다.
딥러닝 기초지식, 파이썬 문법 등에 대해서 이미 숙지하고 있다는 가정하에 글을 작성하였습니다.
→ 딥러닝 기초지식, 파이썬 문법을 이미 숙지하고 있다는 가정하에 글을 작성하였습니다.
잘못된 정보에 대해서 언제든지 [email protected] 로 알려주시면 정정하도록 하겠습니다.
→ 잘못된 정보는 언제든지 [email protected] 로 알려주시면 정정하겠습니다.
내용이 긴 글에 대해서 해당 원문을 다 읽지 않고
→ 내용이 긴 글의 원문을 다 읽지 않고
이외에도 굉장히 많습니다.
한계점 & 다음편 예고
마지막 두 문단에서 Graph 방식의 한계점을 지적하고 다음편에서 Neural Network 방식을 다룬다고 예고하셨는데요.