일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- MySQL
- 차트
- Test
- Python
- ELASTIC
- query
- 파이썬
- analyzer test
- springboot
- plugin
- token filter test
- Java
- 900gle
- TensorFlow
- Elasticsearch
- docker
- matplotlib
- aggregation
- License
- aggs
- API
- licence delete curl
- flask
- high level client
- zip 암호화
- Mac
- Kafka
- zip 파일 암호화
- sort
- license delete
- Today
- Total
목록etc. (28)
개발잡부
무료인데 이정도 기능을 제공해준다니.. 감사할 따름.. 실행시키면 아래와 같은화면이 뜬다 녹색영역에 녹화할 화면을 위치 시키고 아래에 빨간 녹화 버튼을 클릭한다. 이렇게 투명해지고 녹화가 진행된다 녹화된 화면으로 gif 파일을 만든다
900gle shopping README 파일을 변경해야겠음.. 컨셉은 블로그와 README 의 동기화 였으나.. 메뉴가 다른것들이 있음 https://github.com/900gle 900gle - Overview hupa. 900gle has 46 repositories available. Follow their code on GitHub. github.com readme를 좀 더 있어보이게 만들어줄 아이템 Hits 기존뱃지 옆에 히트뱃지를 붙여보자 https://hits.seeyoufarm.com/ HITS Easy way to know how many visitors are viewing your Github, Website, Notion. hits.seeyoufarm.com 접속 해서 Targe..
https://brackets.io/ A modern, open source code editor that understands web design Brackets is a lightweight, yet powerful, modern text editor. We blend visual tools into the editor so you get the right amount of help when you want it. With new features and extensions released every 3-4 weeks, it's like getting presents all year long. brackets.io
(base) ➜ / mkdir data mkdir: data: Read-only file system Catalina 부터 / (root) 경로에 디렉토리를 만들지 못하도록 변경 되었습니다. (만약 / 에 만들어둔 개인 디렉토리가 있었다면 Catalina 로 업그레이드 하면서 사라졌을지도 모릅니다 ㅠㅠ) / 에서 디렉토리를 만들려고 하면 Read-only file system 이라는 오류를 내뿜으며 디렉토리 생성에 실패 합니다. $ mkdir test mkdir: test: Read-only file system / 에 디렉토리를 만들려면 어떻게 해야 할까요? /etc/synthetic.conf 로 심볼릭 링크 만들기 /etc/synthetic.conf 파일을 만들어서 다음과 같은 내용을 넣어 주고 OS..
○ 파일 다운로드 먼저 설치파일을 다운 받습니다. spark.apache.org/downloads.html Downloads | Apache Spark Download Apache Spark™ Choose a Spark release: Choose a package type: Download Spark: Verify this release using the and project release KEYS. Note that, Spark 2.x is pre-built with Scala 2.11 except version 2.4.2, which is pre-built with Scala 2.12. Spar spark.apache.org 다운로드 파일 : https://dlcdn.apache.org/spark/..
집에서 개발 하다보면 이 에러를 자주 만나는데.. 그냥 검색해보기 귀찮아서.. 삽을 떴는데 도저히 안되겠어서 검색해봄 Process 'command '/Library/Java/JavaVirtualMachines/adoptopenjdk-15.jdk/Contents/Home/bin/java'' finished with non-zero exit value 1 이럴 경우 [File > Settings] 메뉴 클릭 (맥 기준 단축키 : Command + ,) [Build, Excution, Deployment > Build Tools > Gradle] 클릭 Build and run using과 Run tests using이 아마도 Gradle(Default)로 되어있을텐데, 이것을 Intellij IDEA로 바꿔..
아래와 같은 에러가 난다면 SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. Multiple bindings were found on the class path configurations.all { // 캐시하지 않음 resolutionStrategy.cacheChangingModulesFor 0, "seconds" exclude group: "org.slf4j", module: "slf4j-log4j12" } implementation("org.apache.spark:spark-sql_2.11:${sparkVersion}"){ exclude group: "org.slf4j", module: "slf4j-log..
여기는 개발환경이 DEV, QA, PRD 3개로 나누어져 있다. 우선DEV환경 배포를 해보자. DEV는 push 하면 자동배포가 된다고 한다. 아이콘 실행해보자 클릭해서 들어가보니 수정사항이 있으니 커밋에 1 commit 메시지 입력하고 커밋 푸시에 커밋하고 나니 push 에 1 로컬피처를 원격지 피처에 푸시해보자 푸시 하면 내 원격지 피처에 머지가 되었다. develop 브랜치를 선택하고 Merge '피처' into develop 하면.. 내 로컬 develop 에 Merge 이걸 다시 push develop 하라는데.. 아.. 이상하네 .. 암튼 뭐 여기는 이렇게 쓰고 있다고 하니..
#root 로 열면면 sudo vi /private/etc/hosts #패스워드를 물어본다 pc 패스워드 Password: ## # Host Database # # localhost is used to configure the loopback interface # when the system is booting. Do not change this entry. ## 127.0.0.1 localhost 127.0.0.1 manage-local.h.kr 255.255.255.255 broadcasthost ::1 localhost # Added by Docker Desktop # To allow the same kube context to work on the host and the container: 127..