데이터분석연습
- 첫 리드미 업
- conda create -n 가상환경명
- 네이버 주식 완료
- 셀레니움 사용
- autocrawl.py
- 크롤링 데이터추거(crawldata folder에 있음!)
- padans폴더!
- 판다스 basic.ipynb완료
- titanic.csv 분석시작!
- 분석완료
- merge.ipynb 완료
- bigdataload.ipynb 완료
- 데이터셋 주소 :https://drive.google.com/file/d/10Am_lQnYbUhACh_z5HKlN-lBRPgoUAFp/view
- visualization 폴더
- 기초seaborn사용법 완료(v1.ipynb)
- 인터랙티브그래프그리기(v2.ipynb):동적그래프
- dash사용시작 (시작전 pip install jinja2 사용해야함)
- dashboard 제작 성공 및 마무리!(plotly사용)
- 실전프로젝트 시작
- #1 RDAP1.ipynb(naver쇼핑 크롤링)
- 오류파악완료 (태그네임과 클래스네임을 헷갈리지 말자!)
- 사용자의 입력을 받아서 크롤링하는 코드로 변경(생각보다 간단하다)
- formating으로 파일명 자동생성!
- 크롤링 종료
- DATASET:APPLE.CSV(크롤링데이터)
- 실전프로젝트 최종종료
- 데이터기획 > 크롤러 제작 > EDA > DASHBOARD
- 각 단계별 진행률 100%완료
- 실전프로젝트 최종완성 100% ThankU!