일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 프로그램
- Tequila
- 쉬티
- 웹페이지
- phython
- Sheety
- API플랫폼
- SMTP
- 게임
- 부트스트랩
- Game
- 파이썬
- ndarray
- 유데미
- 상태코드
- API
- Endpoint
- HTTP
- 파싱
- 웹크롤링
- 최저가
- 프로젝트
- HTML
- Pygame
- 오류
- 계산기
- class
- udemy
- twilio
- Python
- Today
- Total
목록HTML (6)
데이터 분석가
안녕하세요 웹 크롤링은 인터넷 상에 존재하는 다양한 웹 사이트에서 원하는 정보를 수집하는 기술이다 컴퓨터 프로그램을 이용해 자동화된 방식으로 정보를 수집하는데, 이는 웹 사이트의 HTML 코드를 가져와 원하는 정보를 추출한다. 예를 들어, 온라인 마케팅 업체에서 경쟁 업체의 정보를 수집, 인터넷 사용자 검색 키워드 분석하여 서비스, 제품 개발에 사용된다. 파싱(Parsing)은 일련의 문자열 데이터를 의미 있는 정보로 분해 해석하는 과정. 웹 사이트 상의 원하는 정보를 얻기 위해서 HTML 코드를 이용하는데, 파싱이 이용된다. BeautifulSoup 모듈은 파싱을 수행하는 라이브러리 중 하나인데, HTML 문서의 태그, 속성, 값 등을 쉽게 추출하도록 도와준다
파이썬은 requests 라이브러리를 통해 HTTP 요청 메소드(GET, POST, PUT, DELETE 등) 기능을 지원한다 request 모듈을 사용해 HTTP 요청 보내는 코드 단계는 다음과 같다. 1. reuqests 모듈 불러오기 import requests 2. HTTP 요청을 보낼 URL 설정 url = "https://www.example.com/api" 3. HTTP 요청에 필요한 매개변수(PARAMETER) 설정 params = {"key1": "value1", "key2": "value2"} 4. HTTP 요청 메소드와 함꼐 requests 함수 사용하여 요청 response = requests.get(url, params=params) 5. 서버로부터 받은 응답을 확인 print(r..