제 눈으로 보고, AI에게 물어봅니다.
by James Kwon
다시 고민이 많아졌다. 경쟁사도 무섭고, 이게 맞는 방향인지도 모르겠고. 그냥 계속 기록이나 하자 싶어서 돌렸다.
오늘 LLM Radar로 내 블로그를 다시 돌렸다.
결과: 0/18, 노출률 0%.
숫자는 지난번과 같다. 그런데 이번엔 한 가지가 달랐다. 보고서를 뜯어보다가 이상한 걸 발견했다.
LLM Radar는 Perplexity 답변에서 실제로 인용된 사이트를 추출한다. 마크다운 링크 형식 [텍스트](URL) 이나 각주 형태로 달린 출처만 잡아낸다.
18개 질문 전부에서 인용된 사이트가 하나도 없었다.
처음엔 버그인 줄 알았다. 아니었다.
Perplexity가 항상 웹 검색을 하는 게 아니다.
웹 검색을 할 때: 답변에 [1][2][3] 각주가 붙고, 출처 URL이 나온다.
학습 데이터로 답할 때: 각주 없이 깔끔하게 답변이 나온다. 출처가 없다.
내 질문 세트가 두 번째 방식을 유도하고 있었던 거다.
질문들을 다시 보면 이런 식이다:
전부 방법론 질문이다. Perplexity 입장에서는 웹을 뒤질 필요 없이 알고 있는 걸 말하면 된다. 그래서 출처 없이 답한다.
내 블로그가 인용될 기회 자체가 없었던 거다.
Perplexity가 웹 검색을 트리거하는 질문은 따로 있다.
이런 질문은 Perplexity가 실제 웹을 검색해서 출처를 붙인다. 내 글이 인덱싱돼 있고 관련성이 있으면 거기서 등장할 수 있다.
방법론을 설명하는 글이 아니라, 실제로 해보고 기록한 글이어야 한다는 뜻이다.
이 시리즈가 그걸 하고 있는 거긴 한데, 아직 Google 인덱싱도 완료되지 않은 글들이 있다. 순서가 있다.
| 항목 | 상태 |
|---|---|
| 노출률 | 0% (0/18) |
| 참조 사이트 | 없음 (학습 데이터 기반 응답) |
| Google 인덱싱 | 4/7 완료, 3개 요청 중 |
| 질문 세트 방향 | 방법론 위주 → 사례 유도형으로 보완 예정 |
숫자가 0인 이유를 이제 두 가지로 구분할 수 있게 됐다.
이번엔 2번이었다. 다음 스캔에서는 질문 방식을 일부 바꿔볼 생각이다.
← 이전 화: 5화: Gauge를 AI로 검색해봤다
→ 다음 화: LLM Radar 만들기 7화: 질문 하나 바꿨더니 Perplexity가 내 블로그를 인용했다
비슷한 고민 있으시면 편하게 연락주세요. → contact@voidops.space
| *jameskwon07.github.io | LLM Radar 빌드 인 퍼블릭 시리즈* |