본문 바로가기

코딩/머신러닝&데이터 분석 강의

[머신러닝 인강] 10-2주차: Pandas, Series의 이해 04. 데이터 분석을 위한 Python (Pandas) 01. Pandas 이해 - pandas 모듈 설치 02. Series 타입의 이해 - 01. Series 데이터 생성하기 03. Series 타입의 이해 - 02. Series 데이터 심플 분석 (개수, 빈도 등 계산하기) 이번 주차부터는 데이터 분석을 위한 Pandas를 배우는 그 첫 시간이었습니다 ! Pandas에서의 기본 객체 중 하나인 Series 데이터를 생성해보고 Series의 메소드 사용과 분석까지 진행해봤습니다. >>수강 인증샷 더보기
[머신러닝 인강] 10-1주차: linalg 서브모듈, 그래프 표현 03. 데이터 처리를 위한 Python (Numpy) 10. linalg 서브모듈 사용하여 선형대수 연산하기 11. ndarray 데이터를 이용하여 다양한 그래프 표현하기 12. numpy 연습문제 풀이 이번 주차는 numpy를 마무리 짓는 시간이었습니다. numpy의 서브모듈 중 하나인 linalg를 활용해 선형대수(linear algebra) 연산을 하는 법과 ndarray 데이터를 matplotlib 모듈을 이용해 시각화 하는 법을 배우고, 이때까지 배웠던 내용을 바탕으로 연습문제까지 풀이해봤습니다 ! >>수강 인증샷 matmul np.matmul(x, np.linalg.inv(x)) : m by n, n by s 사이 행렬 곱 : 1. @ 연산자 2. numpy의 matmul 함수 - np.lin.. 더보기
[머신러닝 인강] 9-2주차: ndarray 축(axis), 브로트캐스팅(broadcasting), 불린 인덱싱(boolean indexing) 03. 데이터 처리를 위한 Python (Numpy) 07. axis(축) 이해 및 axis를 파라미터로 갖는 함수 활용하기 08. broadcasting 이해 및 활용하기 09. Boolean indexing으로 조건에 맞는 데이터 선택하기 이번 주차에는 저번 시간에도 잠깐 등장한 ndarray의 축(axis)에 관한 내용이 등장합니다. 또한 차원이 '다른' ndarray 간의 연산을 위한 브로드캐스팅, boolean indexing으로 조건에 맞는 데이터를 선택하는 법에 대해서 알아보았습니다. >>수강 인증샷3행 3열 np.sum(z, axis=2) #2번째 찌부->3행 4열 : 3차원 텐서에 적용하기 np.sum(z, axis=-1) #axis 0, 1, 2 == -3, -2, -1 : 음수 인덱싱.. 더보기
[머신러닝 인강] 9-1주차: ndarray 인덱싱, 슬라이싱, 기본 함수 03. 데이터 처리를 위한 Python (Numpy) 04. ndarray 인덱싱 & 슬라이싱 이해하기 05. ndarray 데이터 형태를 바꿔보기(reshape, flatten 등 함수 이용) 06. ndarray 기본 함수 사용하기 이번 시간에는 ndarray를 생성한 뒤, 인덱싱과 슬라이싱으로 원소들에 접근하는 법을 배웠습니다. 이어서 ndarray에서 사용할 수 있는 여러 함수들에 대해서도 배워보는 시간이었네요! >>수강 인증샷1차원 벡터로) #슬라이싱만 x[:1, :2] #위와 동일한 원소만, but 차원은 그대로 x[0:1, 0:2] #0은 생략 가능 (생략하면 '처음부터') : 2차원 행렬 슬라이싱 x = np.arange(54).reshape(2, 9, 3) x[:1, :2, :] #슬라이.. 더보기
[머신러닝 인강] 8-2주차: numpy 모듈과 ndarray 이해하기 03. 데이터 처리를 위한 Python (Numpy) 01. numpy 모듈 & ndarray 이해하기 02. ndarray 데이터 생성하기 (numpy 모듈 함수 이용) 03. ndarray 데이터 생성하기 (random 서브 모듈 함수 이용) 이번 주차는 데이터 처리에 사용되는 모듈인 numpy에 대해 배워보는 그 첫 시간이었네요! >>수강 인증샷 더보기
[머신러닝 인강] 8-1주차: selenium 모듈 02. 데이터 수집을 위한 Python (Crawling) 10. selenium 모듈 - 01. 사이트에 로그인하여 데이터 크롤링하기 11. selenium 모듈 - 02. selenium 모듈로 웹사이트 크롤링하기 12. selenium 모듈 - 03. 웹사이트의 필요한 데이터가 로딩된 후 크롤링하기 13. selenium 모듈 - 04. 실전 웹 크롤링 이번 주차는 2단원 [파이썬으로 웹 크롤링하기] 를 마무리 짓는 주차였습니다. requests와 beautifulsoup 모듈에 이어 좀 더 파워풀한 크롤링이 가능한 selenium 모듈의 사용법에 대해 알아봤어요! >>수강 인증샷헤더의 값들을 dict로 묶어 같이 전달해주자! headers = { 'Authorization': 'Bearer eyJ.. 더보기
[머신러닝 인강] 7-2주차: beautifulsoup 모듈 02. 데이터 수집을 위한 Python (Crawling) 07. beautifulsoup 모듈 - 02. id, class 속성을 이용하여 원하는 값 추출하기 08. beautifulsoup 모듈 - 03. CSS를 이용하여 원하는 값 추출하기 09. beautifulsoup 모듈 - 04. 정규표현식을 이용하여 원하는 값 추출하기 이번 주차에는 beatifulsoup 모듈의 find, select 함수를 이용해 html 내의 원하는 값을 다양한 방법으로 긁어오는 법을 배웠습니다! 저번 시간에 배웠던 정규표현식을 이용해 특정 패턴에 매칭되는 값만을 긁어올 수도 있다고 하네요! >>수강 인증샷 p') #클래스 찾기->'.클래스명' (리스트로 반환) soup.select('.tit_view') #태그와 클.. 더보기
[머신러닝 인강] 7-1주차: API의 활용 02. 데이터 수집을 위한 Python (Crawling) 04. API의 활용 - 01. requests 모듈 사용하기 (HTTP 통신) 05. API의 활용 - 02. Open API를 활용하여 json 데이터 추출하기 (공공데이터 api) 06. beautifulsoup 모듈 - 01. beautifulsoup 모듈 사용하여 HTML 파싱하기(parsing) 이번 주차부터는 이론을 바탕으로 본격적으로 웹페이지를 크롤링 해보는 시간이었습니다. 공공데이터 api를 이용해 json데이터를 추출해보고 request와 beautifulsoup 모듈의 사용법에 대해 익히고 http통신을 자동화 하는 법을 배우는 주차였네요! >>수강 인증샷 더보기
반응형