Robots.txt 란? Robots.txt는 웹사이트 특정 페이지나 섹션을 크롤링 하거나 막는 검색 엔진 로봇에 지시하는 파일이다. 대부분 주요 검색엔진 구글, 네이버, 다음 등 요청을 한다. 이 글을 읽기 전 웹 구조: 검색엔진 최적화에 중요한 이유 3가지 및 웹 페이지 속도 개선: 5가지 증명된 사이트 로딩 방법 을 먼저 읽어보자. Robots.txt 중요한 이유는? 대부분 웹사이트에는 Robots 파일이 필요하지 않다. 구글 등 검색엔진 로봇이 중요한 페이지를 찾고 색인을 생성할 수 있기 때문이다. 중요하지 않은 페이지나 다른 페이지의 중복 콘텐츠 경우 자동으로 색인하지 않는다. 하지만, 왜 해당 파일을 사용하는 걸까? 1. 비공개 페이지 차단 사이트에 색인을 생성하고 싶지 않은 페이지가 있다. ..
웹 페이지 속도 란? 웹 페이지 속도 는 웹 페이지가 로드되는 데 걸리는 시간을 말한다. 페이지의 로딩 속도는 사이트의 서버, 파일 크기, 이미지 등 다양한 요인으로 인해 발생할 수 있다. 페이지 속도를 측정하는 다양한 방법이 있다. 일반적으로 100% 로드하는 데 걸리는 시간이 있다. 페이지 로딩 속도 측정 및 테스트를 하는데 기준이 될 수 있다. 페이지가 로딩 프로세스를 시작하는 데 걸리는 시간 측정 또한 중요하다. 결론적으로 완전히 로딩 하는데 5초 이상 걸리는 경우, 해당 속도 개선 향상에 힘 써야한다. 이럴때 중요한 것이 웹 구조 그리고 사이트맵이다. 웹 구조: 검색엔진 최적화에 중요한 이유 3가지 및 사이트맵 만들기: 구글 웹마스터 도구 쉽게 하는 6가지 방법 읽어보자. 웹 페이지 속도가 SE..
웹 페이지 크롤링 버젯 이란? 웹 페이지 크롤링 예산은 구글 봇이 지정된 기간 내에 웹사이트에서 크롤링하고 색인을 생성하는 페이지 수를 말한다. 해당 부분을 더 자세히 알기 위해서 웹 구조: 검색엔진 최적화에 중요한 이유 3가지 및 사이트맵 만들기: 구글 웹마스터 도구 쉽게 하는 6가지 방법 을 먼저 참고하자. 웹 페이지 크롤링 버젯 중요한 이유 간단히 말하면 구글이 페이지 색인을 생성하지 않는 경우 SERP에서 나타날 수 없다. 따라서 페이지 수가 크롤링 버젯을 초과하면 사이트에 색인이 생성되지 않은 페이지가 생기게 된다. 그래서 대부분 솔루션 및 데이터 업체를 통해 프로그램화시키는 경우가 대부분이다. 하지만 걱정할 필요없다. 구글 봇은 페이지를 찾고 색인을 생성하는데 매우 빠르기 때문이다. 하지만, ..
사이트맵 이란? 사이트맵 이란 검색 엔진이 웹사이트 콘텐츠를 찾고, 크롤링하고 그리고 색인을 생성하는데 도움을 주는 것이다. sitemap은 검색 엔진에게 독자분 사이트에서 가장 중요한 사이트를 알려준다. sitemap 주요 유형은 4가지이다. 일반 XML: 가장 일반적인 유형이다. 웹사이트의 다른 페이지로 연결되는 형식이다. 동영상: 구글에서 페이지 동영상 콘텐츠를 이해하는 데 사용된다. 뉴스: 구글이 구글 뉴스에 대해 승인된 사이트에 콘텐츠를 찾는 것이다. 이미지: 독자분 사이트에 호스팅된 모든 이미지를 찾을 수 있도록 도와준다. 이 글을 읽기 전 웹 구조: 검색엔진 최적화에 중요한 이유 3가지 및 웹 페이지 크롤링 버젯: 5가지 증명된 콘텐츠 사일로 먼저 참고하자. 사이트맵이 중요한 이유 구글 웹마..
에스이오: 3가지 시크릿 찾으러 오셨다면? 👇 https://seo-marketing.co.kr/82 웹 구조 란? 웹사이트 구조 혹은 웹구조 는 페이지가 구조화되고 함께 연결되는 방식을 말한다. 이상적인 웹사이트 구조는 사용자와 검색 엔진 크롤러가 웹사이트에서 원하는 것을 쉽게 찾을 수 있도록 도와준다. 이 글을 읽기 전 사이트맵 만들기: 구글 웹마스터 도구 쉽게 하는 6가지 방법 및 웹 페이지 크롤링 버젯: 5가지 증명된 콘텐츠 사일로 읽어보자. 검색엔진 최적화에 웹 구조 가 중요한 이유 3가지 1. 검색엔진 크롤러가 잘 찾게 도와준다 최적화된 사이트 웹 구조는 검색엔진 크롤러가 웹 사이트의 모든 페이지를 찾고 색인을 생성하는데 도움을 준다. 사이트에 홈페이지에서 여러 번 클릭한 페이지 또는 전혀 링..