일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 프로세서 속도와 심장 박동수
- 아마존해킹
- 컴퓨터 논리와 구조
- 브라우저 작동원리
- 알고리즘 문제 풀이
- 줌서비스
- 퀵정렬
- es6문법
- CS스터디
- 숫자구하기
- HDD와 SSD의 차이
- 빗썸데이터
- API요청
- 비전공자개발정리
- es3
- 이진검색
- 공개API
- 데이터분석
- ES차이
- ES5
- 트위터해킹
- 자바스크립트표준
- 아키네이처
- 컴퓨터과학
- 네트워크해킹
- ECMA설명
- 한국디도스
- es6
- 주식스팸
- 1일 1로그 100일 완성 IT지식
- Today
- Total
목록강의 (14)
개발일지

자, 1주차 고생 많았습니다! 고생의 끝은 숙제죠? 숙제: naver 이메일을 사용하면서, 웹개발 종합반을 신청했고 결제는 kakaopay로 이뤄진 주문데이터 추출하기 select * from orders where email like '%naver.com' and course_title = '웹개발 종합반' and payment_method ='kakaopay' - 일부 데이터만 가져오기 : Limit - 중복 데이터는 제외하고 가져오기 : Distinct - 몇 개인지 숫자 세 보기 : Count - (응용) Distinct와 Count를 같이 써보기 데이터 분석 파이썬을 해서 그런지 그나마 쉽게 넘어갔다!

여러분들이 1주차부터 5주차까지 배운 모든 내용을 이용해 아래의 데이터를 여러분의 역량이 되는 한 최대한 분석해봅시다. 👻 Q1. 탐색적 데이터 분석을 통해 각종 차트로 시각화해봅시다. Q2. 특정 기준을 선정하여 K-means로 군집을 시도해봅시다. Q3. 2주차에서 배운 분류 모델 중 하나를 선정하여 고객 이탈을 예측해봅시다. import pandas as pd import matplotlib.pyplot as plt import seaborn as sns df = pd.read_csv('Sparta_CodingClub_Telco_Customer.csv') df df.info() RangeIndex: 7043 entries, 0 to 7042 Data columns (total 21 columns):..

[코드스니펫] - 보스턴 주택 가격 칼럼 설명 원문 각 변수의 의미는 다음과 같습니다: ( 저희 데이터에는 원문 링크에 있는 열이 일부 없지만 무시하셔도 괜찮습니다 🙂 ) TOWN: 소속 도시 이름 TOWN_Number : 소속 도시의 고유 번호 LON : 경도(Longitudes) LAT : 위도(Latitudes) **CMEDV: 주택 가격 중앙값** CRIM: 도시시(Town) 별 1인당 범죄율 ZN: 25,000 평방 피트를 초과하는 거주지역의 비율 INDUS: 비소매상업지역이 점유하고 있는 토지 비율 CHAS: 찰스강에 대한 더미 변수(강의 경계에 위치한 경우는 1, 아니면 0) NOX: 소속 도시의 농축 일산화질소 RM: 주택 1가구당 평균 방의 개수 AGE: 1940년 이전에 건축된 소유주택..

>> 붓꽃 데이터 로드하기 sklearn은 머신 러닝 패키지로 각종 머신 러닝 데이터셋도 제공하고 있습니다. 이번 과제에서 사용할 머신 러닝 데이터셋은 iris data(붓꽃 데이터)입니다. # 과제에 필요한 패키지는 아래의 두 가지가 전부가 아닙니다. # 여러분들의 필요에 따라서 패키지를 지속 추가하셔도 됩니다. import pandas as pd from sklearn import datasets # 붓꽃 데이터 로드 iris_data = datasets.load_iris() iris 데이터셋의 각 열은 다음과 같습니다. Sepal Length : 꽃받침의 길이 정보 Sepal Width : 꽃받침의 너비 정보 Petal Length : 꽃잎의 길이 정보 Petal Width : 꽃잎의 너비 정보 이..

📄 네이버 쇼핑 리뷰 데이터를 이용해 각각 긍정/부정 리뷰의 워드 클라우드를 만들어보고, 긍정/부정을 분류할 수 있는 모델을 만들어보세요. 새로운 리뷰를 보고 긍정적인지, 부정적인지를 분류할 수 있는 모델을 만들면 완성!('너무 배송이 느리고 별로에요' 라는 리뷰를 부정리뷰라고 잘 분류한 것을 볼 수 있습니다. (아래 예시는 부정 리뷰는 0, 긍정 리뷰는 1 이라는 번호를 부여하고 예측을 진행한 것입니다. 아래 순서대로 시작해보세요! Colab에서 한글 사용을 위한 세팅하기 앞서 강의에서 진행했던 것과 마찬가지로 Colab에서 한글을 사용하기 위한 셋팅을 진행하겠습니다. [코드스니펫] - 한글 사용을 위한 세팅 import matplotlib as mpl import matplotlib.pyplot as..

첫번째 과제로 한번 도 해보지 못한 일을 시작하였다.. 머리가 터질것같아 풀이와 함께 돌려보았다. 그나마 나아졌다 @풀이 정답@ import requests import pandas as pd from bs4 import BeautifulSoup headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get('https://www.genie.co.kr/chart/top200?ditc=D&ymd=20211103&hh=13&rtm=N&pg=1',headers=headers) soup..