일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- docker
- Hive
- 웹 스크래핑
- 컨테이너 삭제
- AWS
- snowflake
- 데이터 웨어하우스
- 데이터마트
- truncate
- Django
- yarn
- ETL
- dag 작성
- Kafka
- ELT
- Serializer
- 데이터레이크
- SQL
- redshift
- airflow.cfg
- spark
- docker-compose
- Django Rest Framework(DRF)
- 데이터파이프라인
- dag
- 웹 크롤링
- 알고리즘
- selenium
- airflow
- docker hub
- Today
- Total
목록selenium (2)
개발 기록장
학습 주제: Selenium, Wait and Call, 마우스/키보드 이벤트 처리, Jupyter LabSelenium: 브라우저 자동화 Selenium 설치%pip install selenium Web Driver - 웹 브라우저를 제어할 수 있는 자동화 프레임워크.%pip install webdriver-manager Selenium 시작# selenium으로부터 webdriver 모듈 불러오기from selenium import webdriverfrom selenium.webdriver.chrome.service import Servicefrom webdriver_manager.chrome import ChromeDriverManager#크롬 실행 및 요청 보내기driver..

학습 주제: BeautifulSoup, 웹 크롤링, 동적 웹 페이지HTML을 분석해주는 BeautifulSoup: HTML 분석기 BeautifulSoup4 설치%pip install bs4 BeautifulSoup 객체 만들기#모듈 불러오기#www.example.com 사이트 요청한 후 응답 받아보기import requestsres = requests.get("http://www.example.com")res.text Html Parser# 첫번째 인자: response의 body를 텍스트로 전달.# 두번째 인자: "html"로 분석한다는 것 명시.from bs4 import BeautifulSoupsoup = BeautifulSoup(res.text,"html.parser")print(soup..