일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- aggs
- high level client
- licence delete curl
- Test
- 차트
- Java
- docker
- API
- Kafka
- Mac
- token filter test
- MySQL
- analyzer test
- 파이썬
- TensorFlow
- zip 파일 암호화
- sort
- License
- flask
- ELASTIC
- Python
- query
- aggregation
- Elasticsearch
- zip 암호화
- plugin
- matplotlib
- springboot
- 900gle
- license delete
- Today
- Total
목록분류 전체보기 (477)
개발잡부
When you already have an older version of NumPy, use this: pip install numpy --upgrade If it still doesn't work, try: pip install numpy --upgrade --ignore-installed

nested 와 object 를 비교해보자. 같은 데이터를 색인하였으나 nested 구조 안의 문서를 개별로 인식해서 그런가 docs 의 차이가 .. 근데 또 size 는 작네 거의 두배차이 from elasticsearch import Elasticsearch import pprint as ppr import json nested_index_name ="nested-index" object_index_name ="object-index" query = { "sort": [ "_score", { "store.price": { "mode": "max", "order": "asc", "nested": { "path": "store", "filter": { "term": { "store.code": "0002..
{'_shards': {'failed': 0, 'skipped': 0, 'successful': 1, 'total': 1}, 'aggregations': {'price_aggs_filter': {'doc_count': 7, 'price_filter': {'doc_count': 4, 'price_avg': {'value': 12675.0}}}}, 'hits': {'hits': [{'_id': '2', '_index': 'nested-index', '_score': 1.2057104, '_source': {'name': '소고기 1등급 100g', 'store': [{'code': '0002', 'price': 9800}]}, '_type': '_doc', 'sort': [1.2057104, 9800]}, ..

conda 환경확인 conda info --envs doo 실행 conda activate doo 설치된 package 를 확인해보잣 pip list Package Version ---------------------------- ------------------- absl-py 1.0.0 aniso8601 9.0.1 api 0.0.7 astunparse 1.6.3 attrs 21.4.0 cached-property 1.5.2 cachetools 5.0.0 certifi 2021.10.8 cffi 1.15.0 charset-normalizer 2.0.12 click 8.1.2 cryptography 37.0.2 cycler 0.11.0 elastic-transport 8.1.1 elasticsearch ..
GET hyper-item/_search?explain=true&pretty GET hyper-item/_search?explain=true&pretty { "from": 0, "size": 100, "timeout": "60s", "query": { "bool": { "must": [ { "function_score": { "query": { "multi_match": { "query": "봉지라면", "fields": [ "brandNmEng^1.0", "brandNmKor^1.0", "category.categorySearchKeyword^1.0", "category.dcateNm^1.0", "isbn^1.0", "itemNo^1.0", "itemOptionNms^1.0", "itemStoreInf..
GET _analyze { "text": "The quick brown fox jumps over the lazy dog", "tokenizer": "whitespace", "filter": [ "lowercase", "stop", "snowball" ] } GET my_index3/_analyze { "analyzer": "my_custom_analyzer", "text": [ "The quick brown fox jumps over the lazy dog" ] } POST hyper-item/_analyze { "analyzer": "search_analyzer", "text": "18놈" } POST hyper-item/_analyze { "analyzer": "index_analyzer", "te..

Backoffice 에서 사용할 manage API 우선 DB 를 실행 docker start mysql project root cd /Users/doo/project/900gle/java/doo http://localhost:8084/swagger-ui.html#

맥을 산지가.. 2년도 넘었는데 용량을 확인해 보자 사과메뉴 > 이 Mac에 관하여 저장공간 탭 확인 아직 반정도 남음 뭔데 500 GB를..
○ 파일 다운로드 먼저 설치파일을 다운 받습니다. spark.apache.org/downloads.html Downloads | Apache Spark Download Apache Spark™ Choose a Spark release: Choose a package type: Download Spark: Verify this release using the and project release KEYS. Note that, Spark 2.x is pre-built with Scala 2.11 except version 2.4.2, which is pre-built with Scala 2.12. Spar spark.apache.org 다운로드 파일 : https://dlcdn.apache.org/spark/..
https://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html Generic Load/Save Functions - Spark 3.2.1 Documentation spark.apache.org JSON File 읽기 Dataset peopleDF = spark.read().format("json").load("examples/src/main/resources/people.json"); peopleDF.select("name", "age").write().format("parquet").save("namesAndAges.parquet"); CSV File 읽기 Dataset peopleDFCsv = spark.read().for..