분류 전체보기264 【Node.js入門】誰でも分かるSocket.ioの使い方とチャットアプリの作り方まとめ! https://www.sejuku.net/blog/82316 【Node.js入門】誰でも分かるSocket.ioの使い方とチャットアプリの作り方まとめ! 今回は、WebSocketによる双方向通信を簡単に記述できる「Socket.io」の基本的な使い方から簡単なチャットアプリの作り方までを学習していきましょう! 「Socket.ioって何?どうやって使 www.sejuku.net 今回は、WebSocketによる双方向通信を簡単に記述できる「Socket.io」の基本的な使い方から簡単なチャットアプリの作り方までを学習していきましょう! 「Socket.ioって何?どうやって使うの?」 「チャットアプリを自作したい」 「双方向通信によるメッセージの送受信方法が知りたい」 このような内容も含めて、本記事では以下のような構成で解説していきます! 【基礎】「Socket.io」.. 2021. 6. 27. 네이버웹마스터도구-사이트맵 등록(sitemap.xml)-서브 링크(사이트 메뉴) 사이트맵(sitemap.xml)을 생성 후 네이버웹마스터도구에 등록하게 되면 서브 링크가 활성화됩니다. 1. 아래 예시처럼 웹사이트를 등록 후 "서브 링크 - 사이트 메뉴"를 보이게 하려면, 네이버웹마스터도구에 sitemap.xml를 제출해야 합니다. 2. 등록하려면, 먼저 sitemap.xml을 미리 생성해 놓아야 합니다. (방법은 이전 포스팅 확인!) 그리고, https://webmastertool.naver.com 네이버 웹마스터도구에 로그인합니다. 네이버 웹마스터도구 웹마스터도구에서 내 사이트의 검색 반영 정보와 웹 표준 가이드를 확인하세요 webmastertool.naver.com 3. 로그인 후 미리 등록한 사이트 도메인이 보입니다. 도메인 주소를 클릭합니다. .. 2021. 6. 27. 네이버 서브링크(Sublinks)란? https://datapia.kr/sitemap.xml 서브링크는 웹사이트의 구조를 자동으로 분석하여, 사용자가 원하는 정보를 쉽게 탐색할 수 있도록 네이버 검색 결과 중 일부 설명문 위에 링크들로 표시되는 부분을 말합니다. 네이버의 서브링크는 자동화되어 있으며, 웹 표준에 맞게 최적화가 잘되어 있는 웹사이트는 검색 로봇이 웹사이트 구조를 분석하기 좋은 바탕이 됩니다. 검색 로봇이 사이트의 구조를 잘 이해하기 위해서는 아래와 같은 사항들을 점검해 주셔야 합니다. 1. 웹 표준 준수 1) javascript 로 된 link 사용을 피해주세요. 2) HTML 링크의 앵커 텍스트를 꼭 넣어주세요. (좋은 앵커텍스트는 검색엔진에게 링크에 대한 맥락을 알려줍니다.) 3) HTML 이미지를 사용하실 때에도 이미.. 2021. 6. 27. 네이버 웹마스터 도구에 사이트맵(Sitemap) 등록 방법 사이트맵이란 무엇인지 알아보고, 사이트맵을 생성해주는 사이트와 프로그램을 소개드리겠습니다. 사이트나 블로그를 운영한다면, 사이트맵과 RSS 개념에 대해서 잘 알아두시면 신세계를 경험할 수 있습니다. 분량에 비해 이해가 쉬운 글이니, 이 글과 밑의 참고글도 함께 읽어봐 주세요. (2020.5.10 추가내용) 드디어 티스토리에서 자체적으로 사이트맵을 만들어줍니다. URL주소에 https://maternalgradndfather.tistory.com/sitemap.xml 과 같이 입력해보시면 확인할 수 있어요. 직접 사이트맵을 만들 필요 없이, 티스토리에서 제공해주는 sitemap을 사용하면 됩니다. # 참고글 1. 티스토리 사이트맵 만들기 : 사이트맵 생성 사이트 및 생성 프로그램 소개 (현재 글) 2... 2021. 6. 27. 크롤링) 접속 차단되었을때 User-Agent지정(header) 뭐야? 너 컴퓨터야? 그럼 들어오지마 !!! 파이썬 크롤링을 진행하시다가, 이상하게... 아무 이유없이 진행이 안될 때가 있습니다. 분명 적혀있는데로 진행을 했는데.. 특별한 오류 메세지는 없는데... 내가 원하는 정보가 찾아지질 않을때... 그럴때는 단계별로 print() 를 해서 찾아봐야 하죠 ㅠ 주로 발생하는 경우 중 하나로, 서버에서 제대로된 html 정보를 주지 않을때 해결하는 방법을 알려드릴까 합니다. 네** 크롤링을 진행할때 자주 나오는 오류이기도 하네요 ㅎ import requests url = '크롤링하고싶은주소' html = requests.get(url).text 위 처럼 해당 사이트에 접속했는데 별다른 오류 메세지가 나오지 않아요.. 그런데 BeautifulSoup.. 2021. 6. 27. 크롤링(crawling) - robots.txt와 주의점 크롤러를 만들기 전 알아야 할 사항 웹페이지의 내용을 가져 오는 것을 크롤링(Crawling) 또는 스크래핑(Scraping)이라고 합니다. 가져와야 할 페이지들이 많은 경우, 구글이나 네이버, 다음과 같은 검색 엔진 사이트들은 검색 속도를 높이기 위해 robot 이라는 프로그램을 만들어서 자동으로 웹 페이지들을 크롤링하는 방법을 사용합니다. 그런데 개인 정보가 들어있는 사이트들은 크롤링이 안 되도록 막고 싶을 수 있습니다. 그래서 무분별한 크롤링을 막고 제어하기 위해 1994년 6월에 로봇 배제 규약이 만들어졌습니다. 말 그대로 로봇이 수집을 못하게 막을 목적으로 만들어졌는데 로봇의 접근 관련 내용(크롤링 허가/불허의 여부)을 robots.txt라는 파일에 적어두는 방법입니다. 만약 크롤링하는 로봇 프.. 2021. 6. 27. 이전 1 ··· 35 36 37 38 39 40 41 ··· 44 다음