| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- 웹 스크래핑
- docker
- 데이터파이프라인
- airflow
- 알고리즘
- 데이터레이크
- 데이터 웨어하우스
- 데이터마트
- airflow.cfg
- Hive
- dag
- SQL
- docker-compose
- spark
- Django Rest Framework(DRF)
- Kafka
- dag 작성
- selenium
- 컨테이너 삭제
- truncate
- redshift
- ELT
- snowflake
- 웹 크롤링
- docker hub
- AWS
- Serializer
- yarn
- Django
- ETL
- Today
- Total
목록selenium (2)
개발 기록장
학습 주제: Selenium, Wait and Call, 마우스/키보드 이벤트 처리, Jupyter LabSelenium: 브라우저 자동화 Selenium 설치%pip install selenium Web Driver - 웹 브라우저를 제어할 수 있는 자동화 프레임워크.%pip install webdriver-manager Selenium 시작# selenium으로부터 webdriver 모듈 불러오기from selenium import webdriverfrom selenium.webdriver.chrome.service import Servicefrom webdriver_manager.chrome import ChromeDriverManager#크롬 실행 및 요청 보내기driver..
학습 주제: BeautifulSoup, 웹 크롤링, 동적 웹 페이지HTML을 분석해주는 BeautifulSoup: HTML 분석기 BeautifulSoup4 설치%pip install bs4 BeautifulSoup 객체 만들기#모듈 불러오기#www.example.com 사이트 요청한 후 응답 받아보기import requestsres = requests.get("http://www.example.com")res.text Html Parser# 첫번째 인자: response의 body를 텍스트로 전달.# 두번째 인자: "html"로 분석한다는 것 명시.from bs4 import BeautifulSoupsoup = BeautifulSoup(res.text,"html.parser")print(soup..