오늘 배운 내용 (11) 썸네일형 리스트형 파이썬 Python [활용] : 사진을 스케치하는 프로그램을 만들어 보자 파이썬 활용 사진을 스케치한것처럼 변환하기 사용한 모듈 및 라이브러리 import cv2 import os from tkinter import * import tkinter.messagebox as msgbox from tkinter import filedialog from PIL import Image 주요 사용한 모듈 및 라이브러리 OpenCV => cv2 tkinter 내용 opencv를 활용하여서 기존 사진을 불러서 읽고, 읽은 사진을 스케치한것처럼 이미지 변환을 통하여서 저장하도록 코딩하였다. tkinter을 통하여서 GUI의 형태 및 사진을 불러오기 작업실행기 등 실질적으로 프로그램을 구현하여보았다. 코드 import cv2 import os from tkinter import * import.. [Python]파이썬 라이브러리 : 크롬드라이버 자동설치 chromedriver-autoinstaller 공부한 것 크롬 드라이버 자동 설치하는 라이브러리 selenium에서 quit()함수 : 마지막에 크롬드라이버 모두 닫아주는 함수 ⇒ 사용해줘야하는 이유는 컴퓨터 메모리 누수 방지 selenium을 이용하여 exe 파일을 만들고 난뒤 배포하고 나서, 다른 컴퓨터에서 사용할 시에 따로 크롬드라이버를 설치해줘야하는 번거러움이 있었다. 그 번거로움을 대체하여서 찾다 보니 자동설치 라이브러리를 찾게 되었다. chromedriver_autoinstaller 라는 라이브러리 참고 사이트 [https://pypi.org/project/chromedriver-autoinstaller/] 설치 방법 pip install chromedriver-autoinstaller 사용법 from selenium import webd.. 파이썬 Python[활용] : 동영상에서 물체 추적해서 동영상 만들기 Object Tracking 동영상에서 특정 물체를 지정하고, 지정한 물체를 따라가게 만드는 물체 트랙킹을 공부하였다. ROI (Region of Interest) ROI 는 Region of Interest의 약자인데 거창한 뜻은 아니고 그냥 이미지상에서 내가 관심있어하는 일부 영역을 뜻한다. 오늘 파이썬으로 응용 및 공부해본 것 결과 한계 만약 특정 물체가 가려지거나 사라질경우 다른 물체가 설정이 되어서 트랙커기능이 안된다. 코드 import cv2 video_path = 'videos.mp4' cap = cv2.VideoCapture(video_path) # 비디오 캡쳐 함수 => cv2.VideoCapture output_size = (187, 335) # width, height (휴대폰에 꽉차.. 파이썬 Python [활용] : Scapy를 통해서 특정 망 내에서 디바이스 정보 가지고 오기 Scapy는 컴퓨터 네트워크를 위한 패킷 조작 도구입니다. 패킷을 위조 또는 디코딩하고, 유선으로 전송하고, 캡처하고, 요청과 응답을 일치시킬 수 있습니다. [위키피디아 참고] Scapy 문서 : https://scapy.readthedocs.io/en/latest/index.html 패킷을 이용한 파이썬 코딩 참고 : http://github.com/secdev/scapy 같은 망(와이파이), 네트워크 안에 있는 디바이스 간의 패킷을 주것 받는 것 배우는 것 : 패킷 선행지식 : 파이썬 득템 가능 지식 : 같은 네트워크망에 패킷 날리기 (scapy) 필요한 아이템 : 집에 사람이 오면 알려주는 프로그램 Scapy Sniffing : 패킷 염탐하기 Spoofing : 다른 사람인척 하기 Manipulat.. Python 파이썬[활용] : 동영상을 한프레임 씩 읽어와서 변환하기 동영상을 텍스트로 변환하기 오늘 배워볼 내용은 동영상을 특정 문자들로 바꾸어서 마치 재생하는 듯한 느낌을 주게 코딩하기 ! 입니다. cmd는 녹화가 따로 안되어서 밑에 어떻게 나오는지 사진 보시죠 !! 대표사진 삭제 특정 문자로 바꾼 뒤 직접 해보시면 신기할거에요 !! : ) 오늘 핵심으로 배운것은, 픽셀별로 값을 대치해서 넣어준다음 변환하는 것 입니다 ! [배운 것] - for 구문에서의 이미지 별 각 문자로 변환되는 과정 ⇒ 픽셀값에 따라 적절하게 아스키코드 대입 하는 방법 - while문을 통한 비디오 한 프레임씩 불러오는 것 ⇒ cv2.VideoCapture()함수를 통해 비디오 불러오고 난 뒤, while 문을 통해 한 프레임씩 동영상을 이미지 처리와 하는 것 - 이미지의 높이 너비 변환하는 법.. 파이썬 : Python 웹스크랩핑 or 크롤링 정리 Selenium : 웹페이지 테스트 자동화 Headless 크롬 : selenium을 통한 웹스크랩핑을 할 때, 브라우저 화면을 안띄우는 법(백그라운드에서 동작하는 것) 웹스크랩핑 요약 HTML는뼈대, CSS는 예쁘게, JavaScript는 살아있게 ⇒ 이것이 웹이다. XPath : 웹안에 Element의 경로 (Chrome의 개발자 도구를 통해 쉽게 XPath를 쓸 수 있다.) 정규식 : 규칙을 가진 문자열을 표현하는 식 . ⇒ (ab.d) 하나의 문자 ^ ⇒ (^cd) 문자열의 시작 $ ⇒ ($cd) 문자열의 끝 match() ⇒ 처음부터 일치하는지 search() ⇒ 일치하는게 있는지 findall() ⇒ 일치하는 것 모두 리스트로 User-Agent : 브라우저가 웹페이지를 요청할 때, 전달하는 .. Python 공부, selenium 공부 : 웹스크랩핑 or 웹 크롤링 관련 Selenium : 웹페이지 테스트 자동화 pip install selenium 으로 selenium라이브러리 설치 추가로 웹드라이버 설치를 해줘야한다 (인터넷 익스플로, 크롬, 파이어폭스 등등 맞는 드라이버 설치) - 각 드라이버랑 pc에 깔린 드라이버 호환이 되는지 확인하기 (크롬기준) 크롬 > chrome://version 이라 검색 후 chrom : xx.xx.xx.xx의 버전 확인, 혹은 우측 상단 점 3개 클릭 > 도움말 > Chrome정보 클릭 chromedriver 검색 > 크롬 앞 84, 85, 83인지 버전에 맞는 드라이버 다운 > 다운받은 파일 파이썬 워크 스페이스에 압축풀기 준비 끝. from selenium import webdriver browser = webdriver.Chro.. Python 파이썬으로 파일 만들기 !(csv, 엑셀, txt 등등 데이터 파일) 오늘 배운 내용은 파이썬을 통하여서 실질적인 데이터 파일을 만드는 법 ! 우선 코드를 직접 보시죠 !! f = open("test.txt", "w") f.write("안녕\n") f.write("빠이 !") f.close() 이렇게 파이썬에 코드를 입력 후 실행하면, 코드가 적힌 파이썬 파일 폴더 안에 test.txt라는 파일이 생길거에요 ! 들어가보면, 안녕 빠이 ! 라는 문구가 적힌것을 확인 할 수 있습니다 ! 표는 블로그 (https://blog.naver.com/dorosy555/221960590012) [코알라 4주차] 파이썬 데이터 크롤링 : 수집한 데이터를 csv, xlsx(openpyxl 사용) 파일로 저장하기 st1: 파이썬으로 파일 만들기# 파일변수+ print문을 사용하면 실행화면에.. 파이썬 : Python 웹스크랩핑 or 크롤링 1-1 (user_agent) 대표사진 삭제 사진 설명을 입력하세요. 앞서 파이썬에서 정규식 공부를 할 때, 아무런 제약 없이 웹에 접근을 하였는데, 앞에 requests라는 라이브러리를 사용하여서 접근하였다 간단하게 코드를 보자 import requests res = requests.get("http://google.com") print("응답코드 : ", res.status_code) # 200 이면 정상(웹에 접근할 수 있는 권한) res.raise_for_status() #밑의 if문과 같은것 # if res.status_code == requests.codes.ok: # print("정상입니다") # else: # print("문제가 생겼습니다.[에러코드 ", res.status_code, "]") print(len(res... 파이썬 : Python 웹스크랩핑 or 크롤링 2 (beautifulsoup4, lxml) 오늘 공부할 것 웹스크랩핑 그리고 웹크롤링 beautifulsoup4 lxml 파이썬 터미널창에 pip install beautifulsoup4 입력하고 라이브러리 설치를 해준다. pip install lxml 입력하고 라이브러리 설치를 해준다. beautifulsoup4는 웹스크래핑을 하기위해 사용되는 패키지 lxml은 구문을 분석하는 라이브러리 이제 코드 작성을 해보자 import requests from bs4 import BeautifulSoup url = "https://comic.naver.com/webtoon/weekday.nhn" res = requests.get(url) res.raise_for_status() soup = BeautifulSoup(res.text, "lxml") # 가지.. 이전 1 2 다음