일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- MySQL
- springboot
- sort
- Java
- API
- 900gle
- query
- 차트
- Python
- plugin
- license delete
- 파이썬
- high level client
- analyzer test
- flask
- TensorFlow
- Mac
- aggs
- token filter test
- ELASTIC
- Elasticsearch
- License
- zip 파일 암호화
- Kafka
- zip 암호화
- docker
- licence delete curl
- Test
- aggregation
- matplotlib
Archives
- Today
- Total
목록Spark (1)
개발잡부
[spark] pyspark 환경만들기
1. 가상환경 리스트 확인 conda env list 2. 가상환경 만들기 conda create -n py38 python==3.8 -y 3. 확인 # To activate this environment, use # # $ conda activate py38 # # To deactivate an active environment, use # # $ conda deactivate 4. pyspark 3.3.1 설치 #들어가서 conda activate py38 실행 conda install -c conda-forge pyspark==3.3.1 -y
Spark
2023. 3. 30. 21:26