Djnago/1차 프로젝트5 닥터자르트 Dr.Jart+ 크롤링 Part 3 part1 : 매인 페이지 가져오기 part2 :상세 페이지 가져오기 part3 : 리뷰 가져오기 해당 프로젝트를 진행하면서 크롤링 했던자료는 모두 개인프로젝트 끝난 후 삭제 했음을 알립니다. 추가적으로 해야하는 가져와야 하는 부분은 iframe입니다. frame이란 inline frame의 약자입니다. iframe 요소를 이용하면 해당 웹 페이지 안에 어떠한 제한 없이 또 다른 하나의 웹 페이지를 삽입할 수 있습니다. part2에서 상세페이지 정보를 가져오는 정보와 + iframe을 가져 오시면 되겠습니다. 아래의 코드는 리뷰를 5페이지만 (30개) 가져오는 로직입니다. from bs4 import BeautifulSoup from selenium.webdriver.common.keys import K.. 2020. 8. 28. 닥터자르트 Dr.Jart+ 크롤링 Part 2 part1 : 매인 페이지 가져오기 part2 :상세 페이지 가져오기 part3 : 리뷰 가져오기 이번 포스팅에는 닥터자르트의 상세 페이지를 크롤링을 해보겠습니다. 해당 내용은 개인 프로젝트를 위해 제작 되었으며. 개인 프로젝트 진행후 모든 데이터를 삭제 했음을 밝힘니다. import requests from bs4 import BeautifulSoup from selenium.webdriver.common.keys import Keys from selenium import webdriver import time import csv chrome_option = webdriver.ChromeOptions() chrome_option.add_argument("headless") chrome_option.ad.. 2020. 8. 14. 닥터자르트 Dr.Jart+ 크롤링 Part 1 part1 : 매인 페이지 가져오기 part2 :상세 페이지 가져오기 part3 : 리뷰 가져오기 해당 자료는 개인 프로젝트를 위해 사용했으며 절대 절대 상업용이나 홍보용으로 사용 안했음을 알려 드리고 (공부용) 개인 프로젝트가 끝난후 모든 크롤링 파일을 삭제 했음을 밝힙니다. from bs4 import BeautifulSoup # 정적인 웹사이트 분석 툴 from selenium.webdriver.common.keys import Keys # 스크롤을 내기기 위한 도구 from selenium import webdriver # 동적인 웹사이트 분석 툴 import csv # 크롤링한 파일을 csv파일 형식으로 변한 하기 위한 도구 import time # 브라우져 버퍼링을 위한 도구 # seleniu.. 2020. 8. 13. wecode 1차 프로젝트 후기 시현 영상 https://youtu.be/GT45h8yfnDo 프로젝트 소개 - 위코드 1차 프로젝트 닥터자르트 홈페이지를 클론하게 되었습니다. 백앤드는 2명에 2명의 프론트로 진행되었으며 저는 백엔드를 담당했습니다. 개발 기간은 2020.07.20 ~ 2020.7.31(2주) 클론 사이트 친환경 사이트를 판매하는 회사 적용 기술 python Django Beautifulsoup, Selenium Bcrypt JWT MySQL AWS Git : github.com/ehghksvjscl/10-first-project.git 프로젝트에서의 역활 데이터 크롤링 데이터 모델링 mysql (RDS구축) AWS서버 구축 제품 페이지, 메인페이지, 상세페이지 View구현 장바구니 기능 로그인 /.. 2020. 8. 5. 이전 1 2 다음