Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- Blog
- 한빛미디어서평단
- 서평단
- tensorflow
- matplotlib
- 딥러닝
- 티스토리
- 한빛미디어
- SQL
- 블로그
- MySQL
- 통계학
- 파이썬 시각화
- Pandas
- 독후감
- 파이썬
- Ga
- Google Analytics
- 텐서플로
- python visualization
- 매틀랩
- MATLAB
- Visualization
- 서평
- 리눅스
- Linux
- Python
- 시각화
- 월간결산
- Tistory
Archives
- Today
- Total
pbj0812의 코딩 일기
[PYTHON] Youtube API를 활용한 검색 결과 크롤링 및 코스트 확인 본문
0. 목표
- Youtube API를 활용한 검색 결과(게시글 정보) 크롤링
1. 실습
1) API 키 확인
- API 키 받기(링크)
- API 키 복사(시뻘건 부분 복사)
2) 코드 작성
(1) library 호출
from googleapiclient.discovery import build
from googleapiclient.errors import HttpError
from oauth2client.tools import argparser
(2) 파라미터 작성
DEVELOPER_KEY = "복사한 API KEY 입력"
YOUTUBE_API_SERVICE_NAME="youtube"
YOUTUBE_API_VERSION="v3"
youtube = build(YOUTUBE_API_SERVICE_NAME,YOUTUBE_API_VERSION,developerKey=DEVELOPER_KEY)
(3) 검색
- q : 검색어
- order : 정렬방법
- part : 필수 매개변수
- maxResults : 결과개수
* 자세한 설명은 공식 문서에서...
search_response = youtube.search().list(
q = "미르방",
order = "date",
part = "snippet",
maxResults = 30
).execute()
- 결과
(4) 30개 순서대로 보기
- 필요한 부분은 dict 긁듯이 긁으면 됨
for i in search_response['items']:
print(i)
print('####################')
- 결과
2. 코스트 확인
- 링크 접속
- 좌측 위 메뉴 -> IAM 및 관리자 -> 할당량
- 306 확인(3번 요청함)
- maxResults를 1, 10, 30씩 변화시켰을때 300인 것으로 보아 요청 1회 당 102소요 되는 것을 알 수 있음
- Youtube Data API v3 글씨 클릭
- 시간별 코스트 확인
3. 참고
- 코드 참조
- 코스트 계산기
'빅데이터 > 자동화' 카테고리의 다른 글
[자동화] importrange를 통한 스프레드시트 내용 복사 (0) | 2020.08.26 |
---|---|
[자동화] Youtube API를 이용한 게시글 전체 댓글 크롤링 (0) | 2020.07.22 |
[자동화] Google SpreadSheet, Calendar 연동을 통한 일정 관리 (3) | 2020.06.29 |
[자동화] Grafana + MySQL 연동 (4) | 2020.06.11 |
[자동화] Mac OS에 Grafana 설치 (1) | 2020.06.10 |
Comments