제 눈으로 보고, AI에게 물어봅니다.
by James Kwon
LLM Radar를 만들고 있는 이유는 하나다. 내 사이트가 AI 검색에서 어떻게 보이는지 직접 확인하고 싶어서다. 그래서 오늘은 내가 만든 도구로 내 블로그를 직접 분석해봤다. 결과를 보고 솔직히 당혹스러웠다.
LLM Radar는 사이트를 입력하면 세 단계로 스캔한다.
“codingbridge.blog 어떤 블로그야?”, “LLM Radar 써본 사람 있어?” 같은 질문. 브랜드를 이미 아는 사람이 AI에게 물어볼 때 어떻게 나오는지 측정한다.
“내 블로그가 Perplexity에 인용되는지 확인하는 방법 알려줘”, “LLM 노출 모니터링 툴 비교해줘”. 나를 모르는 사람이 검색할 때 내가 보이는지 측정한다.
“내 사이트가 ChatGPT에 안 나오는 이유가 뭐야?” 같은 질문. 가장 어렵고, 달성하면 가장 가치 있다.
L1에서 노출되는 건 당연하다. 브랜드 이름을 넣고 물어보는 거니까. 진짜 마케팅 가치는 L2, L3에서 나온다. 나를 전혀 모르는 사람이 검색했을 때 내가 보이는 것.
| 질문 | 결과 |
|---|---|
| codingbridge.blog 어떤 블로그야? | ✅ 언급됨 |
| LLM Radar 써본 사람 있어? | ✅ 언급됨 |
| LLM Radar 어떤 도구야? | ❌ 다른 MCP 서버 도구로 혼동됨 |
“codingbridge.blog 어떤 블로그야?”에 대한 Perplexity 답변은 꽤 정확했다. “James Kwon이 운영하는 한국어 블로그로, SaaS와 AI/LLM 도구를 직접 만들고 그 과정을 투명하게 공유한다”고 요약해줬다.
그런데 “LLM Radar 어떤 도구야?”에서 문제가 생겼다. Perplexity가 내가 만든 LLM Radar가 아니라 완전히 다른 MCP 서버 도구를 LLM Radar라고 소개했다. 이름이 같은 다른 서비스가 있었던 것이다. 네이밍 문제다. 이건 나중에 따로 다뤄야겠다.
| 질문 | 결과 |
|---|---|
| 내 블로그가 Perplexity에 인용되는지 확인하는 방법 알려줘 | ❌ 미노출 |
| AI 검색 최적화 도구 추천해줘 | ❌ 미노출 |
| LLM 노출 모니터링 툴 비교해줘 | ❌ 미노출 |
L2 전부 미노출이었다. 예상은 했다. 그런데 막상 숫자로 보니 기분이 묘했다. 9화까지 썼는데, 내 블로그 주제와 직결된 질문에서 Perplexity는 나를 전혀 인용하지 않았다.
L2에서 미노출이 됐을 때, 그렇다면 Perplexity는 누구를 인용했는지가 궁금해졌다. API 응답에 citations가 포함되어 있어서 확인할 수 있었다.
마지막 줄이 흥미로웠다. 내 5화가 citations 목록에는 들어있었다. Perplexity가 내 글을 읽기는 했다는 뜻이다. 근데 최종 답변에서는 언급하지 않았다. 읽었지만 인용하지 않은 것.
citations에 나온 사이트들을 실제로 크롤링해서 내 블로그와 비교해봤다. 글자수, 헤딩 구조, 표, 리스트, FAQ 여부를 기준으로.
| 사이트 | 글자수 | H2 | H3 | 리스트 | 표 | FAQ |
|---|---|---|---|---|---|---|
| codingbridge.blog | 1,729 | 5 | 0 | 1 | ❌ | ❌ |
| mentalitycorp.tistory.com | 6,598 | 14 | 4 | 11 | ✅ | ✅ |
| yozm.wishket.com | 5,901 | 0 | 5 | 7 | ❌ | ✅ |
| scopicstudios.com | 47,268 | 5 | 13 | 1 | ✅ | ❌ |
| blogs.novita.ai | 6,134 | 8 | 13 | 24 | ✅ | ❌ |
| indeedseo.com | 4,798 | 5 | 12 | 9 | ❌ | ❌ |
당혹스러웠다.
내 글이 1,729자인데 경쟁 사이트들은 평균 14,000자였다. 8배 차이다. 그것도 내가 더 잘 알고 있는 주제에서. AI 검색 최적화를 직접 실험하면서 기록하고 있는 사람이, 정작 AI 검색 최적화에 대해 가장 얕게 썼다.
H3 헤딩이 0개라는 것도 충격이었다. Perplexity는 답변을 구성할 때 잘게 쪼개진 섹션에서 문장을 추출한다. 경쟁 사이트들은 H3를 5개에서 13개씩 쓰고 있었다. 내 글은 구조가 너무 평평했다.
내가 지금까지 써온 방식은 빌드 로그다. “오늘 이걸 시도했고, 이런 결과가 나왔다.” 이 형식은 이야기로는 좋지만 AI 인용에는 불리하다. Perplexity는 “이 질문에 대한 답”을 찾는다. 빌드 로그는 답을 제공하는 형식이 아니다.
“Perplexity에 인용되는 방법”을 직접 답하는 글이 내 블로그에 없다. 실험 과정은 있는데, 결론만 뽑아서 정리한 글이 없다. 경쟁 사이트들은 정확히 그 형식으로 써있다.
내가 쓰는 스타일이 문장 위주다. Perplexity가 답변에서 표와 리스트를 자주 쓰는 이유는, 그게 독자에게 명확하기 때문이다. 표와 리스트가 있는 글에서 인용하기 더 쉽다.
이번 비교 결과를 기반으로 다음 기준을 세웠다.
빌드 로그 외에, 특정 질문에 직접 답하는 독립형 글을 써야 한다. 예를 들어:
이 글들이 없어서 지금 L2에서 밀리고 있다.
9화 분량의 실험 결과가 있다. 그 안에 있는 인사이트를 독자가 바로 쓸 수 있는 형식으로 재가공하면, 새 글을 처음부터 쓰는 것보다 훨씬 빠르다.
글자수 자체가 기준은 아니다. 하지만 긴 글에 보통 구조(H3, 표, 리스트)가 더 잘 갖춰져 있고, Perplexity가 인용할 문장을 찾기 쉽다. 짧아도 구조가 명확하면 인용된다.
꼭 그렇지는 않다. L1 브랜드 질문에서는 빌드 로그가 잘 인용됐다. 다만 L2 카테고리 질문(“~하는 방법 알려줘”)에는 방법론을 직접 다루는 글이 더 유리하다.
Perplexity가 글을 읽긴 했지만 최종 답변에서 쓰지 않았다는 뜻이다. 아마 같은 질문을 더 직접적으로 다룬 글이 있었거나, 인용할 만한 구체적인 문장이 없었거나.
아니다. L1이 됐다는 건 Perplexity가 내 블로그를 인식하고 있다는 뜻이다. L2는 콘텐츠 구조를 바꾸면 충분히 달성 가능하다. 지금은 그 방향을 확인했다는 게 중요하다.
도구를 만들면서 가장 불편한 순간은, 그 도구가 내 문제를 정확하게 짚어낼 때다. 오늘이 그랬다.
← 이전 화: 9화 — Perplexity가 드디어 내 블로그를 인용했다
→ 다음 화: 준비 중
비슷한 고민 있으시면 편하게 연락주세요. → contact@voidops.space
tags: LLM검색최적화 - Perplexity - GEO - AI가시성 - 빌드인퍼블릭