일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- aggs
- 900gle
- high level client
- Python
- Elasticsearch
- 차트
- matplotlib
- zip 파일 암호화
- analyzer test
- MySQL
- springboot
- 파이썬
- Kafka
- token filter test
- licence delete curl
- API
- aggregation
- docker
- Test
- plugin
- sort
- ELASTIC
- Java
- license delete
- Mac
- query
- License
- flask
- zip 암호화
- TensorFlow
- Today
- Total
목록분류 전체보기 (475)
개발잡부
스레드 수 Elasticsearch는 다양한 유형의 작업에 여러 스레드 풀을 사용합니다. 필요할 때마다 새 스레드를 만들 수있는 것이 중요합니다. Elasticsearch 사용자가 만들 수있는 스레드 수가 최소 4096 개인 지 확인합니다. 이것은 설정하여 수행 할 수 있습니다 ulimit -u 4096, Elasticsearch을 시작하기 전에 또는 설정하여 루트로 nproc에 4096에서 /etc/security/limits.conf. 서비스로 실행될 때 패키지 배포 systemd는 Elasticsearch 프로세스의 스레드 수를 자동으로 구성합니다. 추가 구성이 필요하지 않습니다.
Elasticsearch는 mmapfs기본적으로 디렉토리를 사용하여 색인을 저장합니다. mmap 수에 대한 기본 운영 체제 제한이 너무 낮기 때문에 메모리 부족 예외가 발생할 수 있습니다. Linux에서는 다음 명령을 다음과 같이 실행하여 제한을 늘릴 수 있습니다 root. sysctl -w vm.max_map_count=262144 영구적으로이 값을 설정하려면 업데이트 vm.max_map_count의 설정을 /etc/sysctl.conf. 재부팅 후 확인하려면을 실행하십시오 sysctl vm.max_map_count. RPM 및 Debian 패키지는이 설정을 자동으로 구성합니다. 추가 구성이 필요하지 않습니다.
파일 설명자 이는 Linux 및 macOS에만 해당되며 Windows에서 Elasticsearch를 실행하는 경우 무시해도됩니다. Windows에서 JVM은 사용 가능한 리소스에 의해서만 제한된 API 를 사용합니다. Elasticsearch는 많은 파일 설명자 또는 파일 핸들을 사용합니다. 파일 설명자가 부족하면 재앙이 될 수 있으며 데이터 손실로 이어질 수 있습니다. Elasticsearch를 실행하는 사용자의 열린 파일 설명자 수 제한을 65,536 이상으로 늘려야합니다. 들어 .zip및 .tar.gz설정 패키지, ulimit -n 65535 Elasticsearch, 또는 세트를 시작하기 전에 루트로 nofile에 65535에서 /etc/security/limits.conf. macOS -XX:-..
스와핑 비활성화 대부분의 운영 체제는 파일 시스템 캐시에 가능한 한 많은 메모리를 사용하고 사용되지 않는 응용 프로그램 메모리를 열심히 교체하려고합니다. 이로 인해 JVM 힙의 일부 또는 실행 가능한 페이지가 디스크로 스왑 될 수 있습니다. 스와핑은 성능과 노드 안정성에 매우 나쁘기 때문에 어떤 대가를 치르더라도 피해야합니다. 가비지 수집 이 밀리 초가 아닌 몇 분 동안 지속될 수 있으며 노드가 느리게 응답하거나 클러스터에서 연결이 끊어 질 수 있습니다. 탄력적 인 분산 시스템에서는 운영 체제가 노드를 죽 이도록하는 것이 더 효과적입니다. 스와핑을 비활성화하는 방법에는 세 가지가 있습니다. 선호되는 옵션은 스왑을 완전히 비활성화하는 것입니다. 이것이 옵션이 아닌 경우 스왑 파이 최소화와 메모리 잠금을 선..
시스템 설정을 구성하는 위치는 Elasticsearch를 설치하는 데 사용한 패키지와 사용중인 운영 체제에 따라 다릅니다. .zip또는 .tar.gz패키지를 사용할 때 시스템 설정을 구성 할 수 있습니다. 일시적으로 ulimit, 또는 영구적으로 /etc/security/limits.conf. RPM 또는 Debian 패키지를 사용하는 경우 대부분의 시스템 설정은 시스템 구성 파일에 설정됩니다 . 그러나 systemd를 사용하는 시스템에서는 systemd 구성 파일 에 시스템 제한을 지정해야 합니다 ulimit Linux 시스템에서는 ulimit임시로 자원 제한을 변경하는 데 사용할 수 있습니다. 제한은 일반적으로 root Elasticsearch를 실행할 사용자로 전환하기 전에 설정해야합니다 . 예를 ..
테스트 환경 elasticsearch-7.6.1 kibana-7.6.1-linux-x86_64 aws ec2 ubuntu 위에 것들은 설치됐다 치고 [nori 설치] bin/elasticsearch-plugin install analysis-nori 삭제 bin/elasticsearch-plugin remove analysis-nori $ES_HOME/plugins/ ** ES 재시작 ** 테스트를 해보자 환경 스프링부트 + elasticsearch-rest-high-level-client + 스웨거 컨트롤러 와 서비스 package com.doo.nori.controller; import com.doo.nori.service.IndexTestService; import io.swagger.annotat..
자바8의 java.time 패키지(LocalDate, LocalTime, LocalDateTime 등) Apr 1, 2016 예전에 JPA와 LocalDate, LocalDateTime 사용하기 에서 자바8에서 추가된 새로운 날짜와 시간에 대한 API에 대해서 간단하게 글을 썼었다. 이번에는 자바8에 추가된 날짜와 시간 API에 대해서 조금 더 자세하게 알아보려고 한다. 해당 API는 java.time 패키지에 존재한다. 1. 날짜와 시간 객체 생성하기 1.1. LocalDate 로컬 날짜 클래스로 날짜 정보만 필요할 때 사용하면 된다. LocalDate currentDate = LocalDate.now(); // 컴퓨터의 현재 날짜 정보를 저장한 LocalDate 객체를 리턴한다. 결과 : 2016-0..
jpa package com.revu.user.config; import com.revu.user.domain.bmw.CampaignInvitation; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.beans.factory.annotation.Qualifier; import org.springframework.boot.orm.jpa.EntityManagerFactoryBuilder; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; impo..
Human.java package com.test.doo.entities; import lombok.Getter; import lombok.Setter; @Getter @Setter public class Human { protected T name; protected M age; } Boy.java package com.test.doo.entities; public class Boy extends Human{ } Girl.java package com.test.doo.entities; public class Girl extends Human { } Main.Java package com.test.doo.entities; import java.util.ArrayList; import java.util.L..
[pull] #docker pull portainer/portainer [deploy] $ docker volume create portainer_data $ docker run -d -p 9000:9000 --name portainer --restart always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer 접속 localhost:9000 어드민 패스워드 설정