KR20220095694A - AI model connection service system using open API and service method thereof - Google Patents
AI model connection service system using open API and service method thereof Download PDFInfo
- Publication number
- KR20220095694A KR20220095694A KR1020200187460A KR20200187460A KR20220095694A KR 20220095694 A KR20220095694 A KR 20220095694A KR 1020200187460 A KR1020200187460 A KR 1020200187460A KR 20200187460 A KR20200187460 A KR 20200187460A KR 20220095694 A KR20220095694 A KR 20220095694A
- Authority
- KR
- South Korea
- Prior art keywords
- model
- prediction
- information
- module
- linkage
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000005540 biological transmission Effects 0.000 claims abstract description 11
- 238000011161 development Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 description 90
- 238000007726 management method Methods 0.000 description 21
- 230000036541 health Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/067—Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/543—User-generated data transfer, e.g. clipboards, dynamic data exchange [DDE], object linking and embedding [OLE]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- General Business, Economics & Management (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Educational Administration (AREA)
- Information Transfer Between Computers (AREA)
- Stored Programmes (AREA)
Abstract
본 발명의 실시 예에서 개시된 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템은, 모델 연계 모듈 배포부와 오픈 API 연계부를 포함한다. 모델 연계 모듈 배포부는 예측모델과 연계모듈을 수신하고, 상기 수신된 예측모델과 연계모듈을 스토리지에 저장한 후, 상기 저장된 예측모델과 연계 모듈을 AI 모델 허브로 배포하는 배포 엔진에 로딩한다. 오픈 API 연계부는 오픈 에이피아이(API)를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 결과 전송부를 통해 제공한다.The AI model linkage service system using Open API disclosed in the embodiment of the present invention includes a model link module distribution unit and an open API link unit. The model link module distribution unit receives the prediction model and the link module, stores the received prediction model and the link module in a storage, and loads the stored prediction model and link module to the distribution engine that distributes to the AI model hub. The open API linkage unit searches for model information related to the essential prediction information received through the Open API (API) through the AI model linkage management unit, generates related parameters for input processing of the essential prediction information, and the prediction essential information For the transmission of , the related parameters and the model information are linked with the corresponding model link module of the AI model hub, and the prediction of the model information is executed through the linked model link module, and the result of the prediction result information that has been executed provided through the transmitter.
Description
본 발명은 에이이아이(AI:Artificial intelligence) 모델 서비스 분야에 관한 것으로, 보다 상세하게는 오픈 에이피아이 (open API)를 이용한 에이아이 모델 연계 서비스 시스템 및 서비스 방법에 관한 것이다.The present invention relates to the field of artificial intelligence (AI) model service, and more particularly, to an AI model linkage service system and service method using an open API.
현재 AI 모델을 개발하는 AI 모델 개발업체는 AI 서비스를 제공하는 대규모 AI 포탈 업체를 통해서 AI 모델을 대부분 업로드하고 있다. 그러한 경우에 AI 모델 개발업체는 AI 서비스를 제공하는 대규모 포탈 업체에 종속되어 AI 서비스의 신뢰성이나 개발의 댓가에 따른 수익구조에 취약한 문제점이 있다. 또한, AI 서비스 제공사는 AI 서비스를 제공하기 위한 소프트웨어를 개발해야 함은 물론 해당되는 AI 모델 개발업체를 서치하거나 직접 AI 모델을 개발해야 하는 부담이 있다.Currently, AI model developers who develop AI models are mostly uploading AI models through large AI portal companies that provide AI services. In such a case, the AI model developer is subordinated to a large-scale portal company that provides AI services, so there is a problem in the reliability of the AI service or the profit structure according to the cost of development. In addition, AI service providers have to develop software to provide AI services, as well as search for AI model developers or develop AI models themselves.
본 발명이 해결하고자 하는 기술적 과제는, AI 모델 개발업체와 AI 서비스 제공사가 용이하게 연계되도록 하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템 및 서비스 방법을 제공함에 있다.The technical problem to be solved by the present invention is to provide an AI model linkage service system and service method using Open API that allows an AI model developer and an AI service provider to be easily linked.
상기 기술적 과제를 달성하기 위한 본 발명의 실시 예에 따라, 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템은 모델 연계 모듈 배포부와 오픈 API 연계부를 포함한다. 상기 모델 연계 모듈 배포부는 예측모델과 연계모듈을 수신하고, 상기 수신된 예측모델과 연계모듈을 스토리지에 저장한 후, 상기 저장된 예측모델과 연계 모듈을 AI 모델 허브 및 AI 모델 연계부로 각기 배포하는 배포 엔진에 로딩한다. 상기 오픈 API 연계부는 오픈 에이피아이(API)를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 전송부를 통해 제공한다.According to an embodiment of the present invention for achieving the above technical problem, an AI model linkage service system using Open API includes a model linkage module distribution unit and an open API linker unit. The model link module distribution unit receives the prediction model and the link module, stores the received prediction model and the link module in storage, and distributes the stored prediction model and link module to the AI model hub and the AI model link unit, respectively. load into the engine. The open API linkage unit searches for model information related to the essential prediction information received through the Open API (API) through the AI model linkage management unit, generates relevant parameters for input processing of the essential prediction information, and the prediction essential For information transmission, the related parameters and the model information are linked with a corresponding model link module of the AI model hub, the model information is predicted through the linked model link module, and the prediction result information that has been executed provided through the transmitter.
본 발명의 실시 예에 따르면, AI 모델 개발업체와 AI 서비스 제공사가 오픈 API를 통해 서로 쉽게 연계되어 해당 AI 모델을 이용한 서비스가 수요자에게 원활히 제공될 수 있다. 따라서, AI 모델 개발업체와 AI 서비스 제공사의 이익이 서로 극대화될 수 있다. 결국, AI 모델 개발업체는 AI 서비스를 제공하는 소프트웨어를 별도로 개발할 필요 없이 AI 모델만을 개발하더라도 해당 AI 모델을 이용한 서비스가 수요자에게 제공될 수 있고, AI 서비스 제공사는 다양한 AI 모델들을 별도로 개발하지 않더라도 각종 AI 서비스를 제공할 수 있다.According to an embodiment of the present invention, an AI model developer and an AI service provider are easily linked to each other through an open API, so that a service using the AI model can be smoothly provided to consumers. Accordingly, the profits of AI model developers and AI service providers can be maximized. In the end, AI model developers do not need to separately develop software that provides AI services, and even if only AI models are developed, services using the AI models can be provided to consumers, and AI service providers do not develop various AI models separately. AI services can be provided.
도 1은 본 발명의 실시 예에 따른 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템의 개념적 블록도이다.
도 2는 도 1의 모듈 배포부의 동작을 설명하는 플로우챠트이다.
도 3은 도 1의 오픈 API 연계부의 동작 일부를 설명하는 플로우챠트이다.1 is a conceptual block diagram of an AI model linkage service system using Open AI according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating the operation of the module distribution unit of FIG. 1 .
3 is a flowchart illustrating a part of the operation of the open API linker of FIG. 1 .
위와 같은 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은, 이해의 편의를 제공할 의도 이외에는 다른 의도 없이, 개시된 내용이 보다 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be more thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art, without any intention other than to provide convenience of understanding.
본 상세한 설명 전체에 걸쳐 "일 실시 예" 또는 "실시 예" 로의 참조는 실시 예와 관련되어 설명된 특정한 특징 구조, 또는 특성이 본 명세서에 개시된 적어도 하나의 실시 예에 포함될 수 있다는 것을 의미한다. 따라서, 본 상세한 설명 전체에 걸쳐 다양한 장소들에서의 "일 실시 예에서" 또는 "실시 예에서" 또는 "일 실시 예에 따라"(또는 유사한 의미를 갖는 다른 구성들)구절들의 출현들은 모두 반드시 동일한 실시 예를 지칭하는 것이 아닐 수 있다. 또한, 특정한 특징들, 구조들, 또는 특성들은 하나 이상의 실시 예들에서 임의의 적합한 방식으로 결합될 수 있다. 이와 관련하여 본 명세서에서 사용된 바와 같이, "예시적인" 단어는 "예시, 실례, 또는 도시를 제공함"을 의미한다. "예시적인" 것으로서 본 명세서에 설명된 임의의 실시 예는 다른 실시 예보다 반드시 선호되거나 유리한 것으로 해석되어서는 안된다. 또한, 본 명세서의 문맥에 따라, 단수의 용어는 해당 복수의 형태들을 포함할 수 있고, 복수의 용어는 해당 단수의 형태를 포함할 수 있다. 본 명세서에 도시되고 논의된(구성요소 도해들을 포함하는) 다양한 도면들은 단지 예시적인 목적을 위한 것이고, 실제 척도로 그려진 것이 아니라는 점에서 유의해야 한다. Reference throughout this detailed description to “one embodiment” or “an embodiment” means that a particular feature structure, or characteristic described in connection with the embodiment may be included in at least one embodiment disclosed herein. Thus, the appearances of the phrases "in an embodiment" or "in an embodiment" or "according to an embodiment" (or other constructions having a similar meaning) in various places throughout this specification are all necessarily identical. It may not refer to an embodiment. Moreover, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. As used herein in this regard, the word “exemplary” means “to provide an illustration, illustration, or illustration.” Any embodiment described herein as “exemplary” should not necessarily be construed as preferred or advantageous over other embodiments. Also, depending on the context of this specification, a singular term may include its plural forms, and a plural term may include its singular forms. It should be noted that the various drawings shown and discussed herein (including component diagrams) are for illustrative purposes only and are not drawn to scale.
본 명세서에서 사용된 용어는 단지 특정한 예시 적인 실시 예들을 설명하기 위한 것이고, 청구된 본 발명을 한정하려고 의도되는 것은 아니다. 본 명세서에서 사용된 바와 같이, 단수의 형태들 "한(a)", "한(an)", 및 "그(the)"는 문맥이 명백하게 다르게 지시하지 않는 한 복수의 형태를 포함하는 것으로 의도된다. "포함하다" 및/또는 "포함하는" 용어들은, 상세한 설명에서 사용될 때, 명시된 특징들, 정수들, 단계들, 연산들, 요소들, 및/또는 구성 요소들의 존재를 명시하나, 하나 이상의 다른 특징들, 정수들, 단계들, 연산들, 요소들, 및/또는 구성 요소들, 및/또는 그들의 그룹들의 존재 또는 추가를 배제하지 않는 다는 것이 더 이해될 것이다. 본 명세서에서 사용된 "제1", "제2" 등의 용어들은 선행하는 명사들의 라벨(label)들로 사용되고, 그렇게 명백하게 정의되지 않는 한 임의의 유형의 순서(예를 들어 공간적, 시간적, 논리적 등)를 암시하지 않는다. 또한 동일하거나 유사한 기능을 갖는 부분들, 구성요소들, 블록들, 회로들, 유닛들, 또는 모듈들을 지칭하기 위해 둘 이상의 도면들에 걸쳐 동일한 참조 번호들이 사용될 수 있다. 그러나 이러한 사용은 도시의 간소화 및 논의의 용이함을 위해서만이다. 이는 그러한 구성 요소들 또는 유닛들의 구성 또는 구조적 세부 사항이 모든 실시 예들에 걸쳐 동일한 것을 의미하지 않거나 또는 이러한 공통으로 참조된 부분들/모듈들이 본 명세서에 개시된 특정한 실시 예들의 지침들을 구현하는 유일한 방법이라는 것을 의미하지는 않는다. The terminology used herein is for the purpose of describing particular exemplary embodiments only, and is not intended to limit the claimed invention. As used herein, the singular forms "a", "an", and "the" are intended to include the plural forms unless the context clearly dictates otherwise. do. The terms “comprise” and/or “comprising,” when used in the specification, specify the presence of specified features, integers, steps, operations, elements, and/or components, but include one or more other It will be further understood that this does not exclude the presence or addition of features, integers, steps, operations, elements, and/or components, and/or groups thereof. As used herein, terms such as "first", "second", etc. are used as labels of preceding nouns, and unless explicitly defined so, in any type of order (eg, spatial, temporal, logical etc.) is not implied. Also, the same reference numbers may be used throughout two or more drawings to refer to parts, components, blocks, circuits, units, or modules having the same or similar function. However, this use is only for the sake of simplification of the city and ease of discussion. This does not mean that the configuration or structural details of such components or units are the same across all embodiments, or that these commonly referenced parts/modules are the only way to implement the guidelines of the specific embodiments disclosed herein. doesn't mean that
달리 정의되지 않는 한, 본 명세서에서 사용된 모든 용어들(기술적인 그리고 과학적인 용어들을 포함하는)은 본 발명에 속한 기술 분야의 당업자에 의해 일반적으로 이해되는 동일한 의미를 갖는다. 일반적으로 사용되는 사전들에 정의된 용어들은 관련기술의 문맥에서 그들의 의미와 일치하는 의미를 갖는 것으로서 해석되어야 하며 그리고 본 명세서에서 명백하게 정의되지 않는 한 이상적으로 되거나 지나치게 형식적인 뜻으로 해석되지 말아야 할 것임이 더 이해될 것이다. Unless defined otherwise, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with their meaning in the context of the related art, and should not be interpreted in an idealized or overly formal sense unless explicitly defined herein. This will make more sense.
본 명세서에서 사용된 바로서, 용어 "모듈(module)"은 모듈과 관련되어 본 명세서에서 설명된 기능을 제공하도록 구성된 소프트웨어, 펌웨어(firmware), 및/또는 하드웨어의 임의의 조합을 나타낸다. 용어 "소프트웨어"는 본 명세서에서 설명된 임의의 구현에 적용된 대로, 소프트웨어 패키지, 코드, 및/또는 인스트럭션 셋(set) 또는 인스트럭션들로서 구현될 수 있다. 용어 "하드웨어"는 본 명세서에서 설명된 임의의 구현 예에 적용된 대로, 예를 들어 개별의 혹은 임의의 조합의, 하드와이어드 회로(hardwired circuitry), 프로그래머블 회로, 상태-머신 회로(state machine circuitry), 및/또는 프로그래머블 회로에 의해 실행되는 인스트럭션들을 저장하는 펌웨어를 포함할 수 있다. 모듈들은 집합적으로 또는 개별적으로, 집적회로, 시스템 온 칩 (SoC) 등으로 구현될 수 있으나, 이에 제한되지 않는 더 큰 시스템의 일부를 형성하는 회로로 구현될 수 있다. As used herein, the term “module” refers to any combination of software, firmware, and/or hardware configured to provide the functionality described herein in connection with a module. The term “software,” as applied to any implementation described herein, may be implemented as a software package, code, and/or an instruction set or instructions. The term "hardware" as applied to any implementation described herein, for example, individually or in any combination, includes hardwired circuitry, programmable circuitry, state machine circuitry, and/or firmware that stores instructions to be executed by the programmable circuit. Modules, collectively or individually, may be implemented as integrated circuits, system-on-a-chip (SoC), etc., but may be implemented as circuitry forming part of a larger system, including but not limited to.
여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함될 수 있으며, AI 모듈의 세부적인 추론 동작, 예측 동작들은 본 발명의 요지를 모호하지 않도록 하기 위해 상세히 설명되지 않을 것이다. Each embodiment described and illustrated herein may also include a complementary embodiment thereof, and detailed inference operations and prediction operations of the AI module will not be described in detail so as not to obscure the gist of the present invention.
도 1은 본 발명의 실시 예에 따른 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템의 개념적 블록도이다. 1 is a conceptual block diagram of an AI model linkage service system using Open AI according to an embodiment of the present invention.
도 1을 참조하면, 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템은 모델 연계 모듈 배포부(100)와 오픈 API 연계부를 포함한다. Referring to FIG. 1 , the AI model linkage service system using Open API includes a model linkage
상기 모델 연계 모듈 배포부(100)는 모델수신 모듈(110), 모델저장 모듈(120), 및 모델로딩 모듈(130)을 포함할 수 있다. The model link
상기 오픈 API 연계부는 정보 수신 및 전송부(200), AI 모델 연계 관리부(300), AI 모델 연계부(400), AI 모델 허브(500)를 포함한다.The open API linkage unit includes an information receiving and transmitting unit 200 , an AI model
상기 정보 수신 및 전송부(200)는 예측필수 정보 수신 모듈(210), 예측필수 정보 전달 모듈(220), 예측결과 정보 전달 모듈(230), 및 예측결과 정보 수신 모듈(240)을 포함할 수 있다. The information receiving and transmitting unit 200 may include a prediction required
상기 AI 모델 연계 관리부(300)는 수신 모듈(310), 정보 검색 모듈(320), 입력처리 모듈(330), 전송처리 모듈(340), 분기처리 모듈(350), 결과수신 처리 모듈(350), 결과전달 처리 모듈(360)을 포함할 수 있다. The AI model
상기 AI 모델 연계부(400)는 복수의 연계 모듈들(401-1~401-N)을 포함할 수 있다. The AI
상기 AI 모델 허브는(500)는 건강예측 모델(510), 건강나이 예측 모델(520), 장비고장 예측 모델(530), 날씨 예측 모델(540), 및 기타 모델(550)을 포함할 수 있다. The
상기 모델 연계 모듈 배포부(100)의 상기 모델수신 모듈(110)은 AI 모델 개발 단말(10)로부터 A 사가 개발한 예측모델과 연계모듈을 수신할 수 있다. 여기서, A 사는 AI 모델 개발업체일 수 있다. 상기 A 사는 AI 서비스를 제공하는 소프트웨어를 별도로 개발할 필요 없이 AI 모델의 개발에 전념한다. The model receiving
상기 모델수신 모듈(110)과 상기 AI 모델 개발 단말(10)간의 통신 프로토콜은 HTTP일 수 있다. 그러나, 상기 통신 프로토콜은 예시적인 방식에 불과하며, 사안이 다른 경우에 다음과 같은 통신 프로토콜들이 사용될 수도 있다. 상기 프로토콜들은 Code Division Multiple Access (CDMA), Global System for Mobile Communications (GSM), North American Digital Communications (NADC), Extended Time Division Multiple Access (E-TDMA), Wideband CDMA (WCDMA), CDMA2000, Wi-Fi, Municipal Wi-Fi (Muni Wi-Fi), Bluetooth, Digital Enhanced Cordless Telecommunications (DECT), Wireless Universal Serial Bus (Wireless USB), Fast low-latency access with seamless handoff Orthogonal Frequency Division Multiplexing (Flash-OFDM), IEEE 802.20, General Packet Radio Service (GPRS), iBurst, Wireless Broadband (WiBro), WiMAX, WiMAX-Advanced, Universal Mobile Telecommunication Service - Time Division Duplex (UMTS-TDD), High Speed Packet Access (HSPA), Evolution Data Optimized (EVDO), Long Term Evolution - Advanced (LTE Advanced), Multichannel Multipoint Distribution Service (MMDS), 및 기타 등등일 수 있다.The communication protocol between the model receiving
상기 예측모델은 딥러닝 엔진을 이용하여 생성된 모델일 수 있다. 생성된 예측모델은 java, Python 등과 같은 동적 연계 코드를 이용하여 연계될 수 있다. The predictive model may be a model generated using a deep learning engine. The generated prediction model can be linked using a dynamic linkage code such as java or Python.
상기 연계 모듈은 운영관리 프로그램을 이용하여 웹에 자동 디플로이된다. 상기 연계 모듈은 자동으로 Open API 모듈과 연계될 수 있다. 따라서, 오픈 API 통해서 AI 예측 모델을 연계하고 예측 모델로부터 얻어진 결과를 오픈 API 통해서 받는 형태이다. The link module is automatically deployed on the web using an operation management program. The association module may be automatically associated with the Open API module. Therefore, it is a form of linking the AI prediction model through the open API and receiving the result obtained from the prediction model through the open API.
상기 모델 연계 모듈 배포부(100)의 상기 모델 저장 모듈(120)은 상기 모델 수신 모듈(110)을 통해 수신된 예측모델과 연계모듈을 메모리 혹은 스토리지에 저장한다. The
상기 모델 연계 모듈 배포부(100)의 상기 모델 로딩 모듈(130)은 상기 저장된 예측모델과 연계 모듈을 상기 AI 모델 허브(500) 및 상기 AI 모델 연계부(400)로 로 각기 배포하는 배포 엔진에 로딩한다. 여기서, 상기 배포 엔진은 상기 연계 모듈이 jar 파일인 경우에 JVM 엔진일 수 있다. 상기 JVM은 Java Virtual Machine의 약자로 자바 바이트 코드를 OS에 특화된 코드로 변환하여 실행 해주는 역할을 한다. 즉, JVM 위에서 동작하기 위해서는 자바 바이트코드가 필요하다. 자바 바이트 코드는 개발자에 의해서 작성된 자바 코드를 자바 컴파일러로 변환된 코드를 말한다. 상기 JVM은 OS에 특화된 코드로 변환해 실행을 해주기 때문에 특정 플랫폼에 종속적인 특징을 가지고 있다. 결국, 이러한 의미는 자바에서는 JVM에 의해서 실행이 되기 때문에 자바는 운영체제에 독립적이라고 할 수 있는 것이다. The
상기 오픈 API 연계부의 상기 정보 수신 및 전송부(200)는 B사의 모델 이용 서비스 단말(20)과 접속될 수 있다. 여기서 B사는 AI 서비스 제공사이다. 따라서, AI 서비스 제공사는 다양한 AI 모델들을 별도로 개발하지 않더라도 각종 AI 서비스를 수요자에게 제공할 수 있다. The information receiving and transmitting unit 200 of the open API linkage unit may be connected to the model
상기 정보 수신 및 전송부(200)의 예측필수 정보 수신 모듈(210)는 상기 모델 이용 서비스 단말(20)로부터 예측필수 정보를 수신한다. 상기 정보 수신 및 전송부(200)의 예측필수 정보 전달 모듈(220)은 상기 수신된 예측필수 정보를 상기 AI 모델 연계 관리부(300)로 전달한다. 상기 정보 수신 및 전송부(200)의 예측결과 정보 전달 모듈(230)은 AI 모델을 통해 예측 완료된 예측결과 정보를 상기 모델 이용 서비스 단말(20)로 전달한다. 상기 정보 수신 및 전송부(200)의 예측결과 정보 수신 모듈(230)은 AI 모델을 통해 예측 완료된 예측결과 정보를 AI 모델 연계 관리부(300)의 결과전달 처리 모듈(370)로부터 수신하여 상기 예측결과 정보 전달 모듈(230)로 전달한다. The prediction essential
상기 AI 모델 연계 관리부(300)의 상기 수신 모듈(310)은 상기 정보 수신 및 전송부(200)의 상기 예측필수 정보 전달 모듈(220)로부터 상기 예측필수 정보를 수신한다. 상기 AI 모델 연계 관리부(300)의 상기 정보 검색 모듈(320)은 상기 수신 모듈(310)을 통해 수신된 상기 예측필수 정보에 관련된 모델 정보를 검색한다. 결국, 상기 모델 정보는 오픈 API인 정보 수신 및 전송부(200)를 통해 수신된 정보이다. 상기 AI 모델 연계 관리부(300)의 상기 입력처리 모듈(330)은 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성한다. 상기 AI 모델 연계 관리부(300)의 상기 전송처리 모듈(340)은 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시킨다. 이 경우에 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키기 위해 모델 분기 처리가 수행될 필요가 있다. 상기 AI 모델 연계 관리부(300)의 상기 분기처리 모듈(350)은 상기 모델 분기 처리를 수행한다. 상기 AI 모델 연계 관리부(300)의 상기 결과수신 처리 모듈(350)은 AI 모델을 통해 예측 완료된 예측결과 정보를 수신한다. 상기 수신된 예측결과 정보는 AI 모델 연계 관리부(300)의 결과전달 처리 모듈(370)로 전달된다. The receiving
상기 상기 AI 모델 연계 관리부(300)의 상기 결과전달 처리 모듈(360)은 상기 수신된 예측결과 정보를 상기 예측결과 정보 수신 모듈(240)로 전달한다. The result
상기 AI 모델 연계부(400)의 복수의 연계 모듈들(401-1~401-N)은 상기 모델 로딩 모듈(130)에 의해 로딩된 연계 모듈들로서, 각종 모델들에 대한 연계모듈을 포함할 수 있다. The plurality of linkage modules 401-1 to 401-N of the AI
상기 AI 모델 허브는(500)의 건강예측 모델(510), 건강나이 예측 모델(520), 장비고장 예측 모델(530), 날씨 예측 모델(540), 및 기타 모델(550)은 상기 복수의 연계 모듈들(401-1~401-N)에 대응되어 마련될 수 있다. 상기 건강예측 모델(510), 건강나이 예측 모델(520), 장비고장 예측 모델(530), 날씨 예측 모델(540), 및 기타 모델(550)은 상기 모델 로딩 모듈(130)에 의해 로딩된 모델들이다. The
예를 들어, 상기 건강 예측 모델(510)은 상기 A모델 연계 모듈(401-1)을 통해 건강 모델 정보의 예측을 실행할 수 있다. 예측 실행이 완료된 예측결과 정보는 상기 결과 수신 처리 모듈(360)으로 제공된다. For example, the
도 2는 도 1의 모듈 배포부의 동작을 설명하는 플로우챠트이다.FIG. 2 is a flowchart illustrating the operation of the module distribution unit of FIG. 1 .
도 2를 참조하면, 동작 S101에서 모듈 배포부(100)의 모델 수신 모듈(110)은 예측 모델과 연계 모듈을 수신한다. 상기 예측 모델과 연계 모듈은 AI 예측 모델 및 AI 연계 모듈로서, AI 모델 개발 업체로부터 제공되는 모델 및 모듈이다. Referring to FIG. 2 , in operation S101 , the
동작 S102에서 모듈 배포부(100)의 모델 저장 모듈(120)은 수신된 예측 모델과 연계 모듈을 메모리 혹은 스토리지에 저장한다. 동작 S103에서 모듈 배포부(100)의 모델 로딩 모듈(130)은 저장된 예측 모델과 연계 모듈을 배포한다. 예를 들어, A사에서 만들어진 건강 예측 모델과 A 모델 연계 모듈이 배포되는 경우에 AI 모델 허브(500)에는 건강 예측 모델(510)이 존재하게 되고, AI 모델 연계부(400)에는 A 모델 연계 모듈(401-1)이 존재하게 된다. In operation S102, the
도 3은 도 1의 오픈 API 연계부의 동작 일부를 설명하는 플로우챠트이다.3 is a flowchart illustrating a part of the operation of the open API linker of FIG. 1 .
도 3을 참조하면, 동작 S201에서 AI 모델 연계 관리부(300)의 수신 모듈(310)은 예측 필수 정보 전달 모듈(220)로부터 예측에 필요한 예측 필수 정보를 수신한다. 예를 들어, 예측 필수 정보는 모델정보, 활동량, 혈압, 혈당 등과 같은 정보일 수 있다. Referring to FIG. 3 , in operation S201 , the receiving
동작 S202에서 AI 모델 연계 관리부(300)의 정보 검색 모듈(320)은 모델 정보를 검색한다. In operation S202, the
동작 S203에서 AI 모델 연계 관리부(300)의 입력처리 모듈(330)은 예측 정보를 입력 처리한다. In operation S203, the
동작 S204에서 AI 모델 연계 관리부(300)의 전송 처리 모듈(310)은 예측 정보 전송 처리를 수행한다.In operation S204, the
동작 S205에서 AI 모델 연계 관리부(300)의 분기 처리 모듈(350)은 모델 분기 처리를 수행한다. In operation S205, the branch processing module 350 of the AI model
동작 S206에서 AI 모델 연계 관리부(300)의 결과 수신 처리 모듈(360)은 예측 결과를 수신 처리한다. 예를 들어, 건강 나이 예측에 관련하여 예측 모델을 통해 얻어진 예측 결과는 "당신의 건강나이는 35세 입니다." 라는 결과 데이터 일 수 있다. In operation S206, the result
동작 S207에서 AI 모델 연계 관리부(300)의 결과 전달 처리 모듈(370)은 예측 결과를 전달 처리한다. In operation S207, the result
여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 예를 들어, 사안이 다른 경우에 본 발명의 기술적 사상을 벗어남이 없이, 모듈 배포부의 세부적 동작이나 오픈 API 연계부의 세부적 동작이 변경 또는 가감될 수 있다.Although specific terms have been used herein, they are only used for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. For example, if the matter is different, the detailed operation of the module distribution unit or the detailed operation of the open API linkage unit may be changed or added or subtracted without departing from the technical spirit of the present invention.
100: 모듈 배포부
200: 정보 수신 및 전송부
300: AI 모델 연계 관리부
400: AI 모델 연계부
500: AI 모델 허브100: module distribution unit
200: information receiving and transmitting unit
300: AI model linkage management unit
400: AI model linkage
500: AI Model Hub
Claims (6)
오픈 에이피아이(API)를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 전송부를 통해 제공하는 오픈 API 연계부를 포함하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템.Model linkage that receives the prediction model and link module, stores the received prediction model and link module in storage, and loads the stored prediction model and link module to the distribution engine that distributes the stored prediction model and link module to the AI model hub and the AI model link unit, respectively module distribution department; and
Search for model information related to essential prediction information received through Open API (API) through the AI model linkage management unit, generate relevant parameters for input processing of the essential prediction information, and transmit the essential prediction information Linking the related parameters and the model information with a corresponding model link module of the AI model hub, executing the prediction of the model information through the linked model link module, and providing the completed prediction result information through the transmission unit A.I model linkage service system using Open API including an open API linkage.
예측모델과 연계모듈을 수신하고, 상기 수신된 예측모델과 연계모듈을 스토리지에 저장하고, 상기 저장된 예측모델과 연계 모듈을 AI 모델 허브 및 AI 모델 연계부로 각기 배포하는 배포 엔진에 로딩하는 모델 연계 모듈 배포 단계; 및
상기 오픈 API를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 전송부를 통해 제공하는 오픈 API 연계 단계를 포함하는 시스템.
In the AI model link service method using Open AI (API):
A model linkage module for receiving a prediction model and a linkage module, storing the received prediction model and linkage module in storage, and loading the stored prediction model and linkage module into a distribution engine that distributes the stored predictive model and linkage module to an AI model hub and an AI model linker, respectively deployment phase; and
The model information related to the essential prediction information received through the open API is retrieved through the AI model linkage management unit, the related parameters are generated for input processing of the essential prediction information, and the related parameters are transmitted for the transmission of the essential prediction information. Linking the model information and the model information with the corresponding model linkage module of the AI model hub, executing the prediction of the model information through the linked model linkage module, and providing the executed prediction result information through the transmission unit Open API linkage A system comprising steps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200187460A KR102550574B1 (en) | 2020-12-30 | 2020-12-30 | AI model connection service system using open API and service method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200187460A KR102550574B1 (en) | 2020-12-30 | 2020-12-30 | AI model connection service system using open API and service method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220095694A true KR20220095694A (en) | 2022-07-07 |
KR102550574B1 KR102550574B1 (en) | 2023-07-03 |
Family
ID=82397757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200187460A KR102550574B1 (en) | 2020-12-30 | 2020-12-30 | AI model connection service system using open API and service method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102550574B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102696140B1 (en) * | 2023-07-14 | 2024-08-16 | 연세대학교 산학협력단 | Method for providing artificial intelligence model use service and server for performing the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110070724A (en) * | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | Open AP integrated search and mashup block based code generation device and method |
KR101414795B1 (en) * | 2013-12-13 | 2014-07-03 | (주)인스웨이브시스템즈 | Instant Web App composing device and method |
KR20200094834A (en) * | 2019-01-22 | 2020-08-10 | (주)티비스톰 | Platform for gathering information for ai entities and method by using the same |
-
2020
- 2020-12-30 KR KR1020200187460A patent/KR102550574B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110070724A (en) * | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | Open AP integrated search and mashup block based code generation device and method |
KR101414795B1 (en) * | 2013-12-13 | 2014-07-03 | (주)인스웨이브시스템즈 | Instant Web App composing device and method |
KR20200094834A (en) * | 2019-01-22 | 2020-08-10 | (주)티비스톰 | Platform for gathering information for ai entities and method by using the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102696140B1 (en) * | 2023-07-14 | 2024-08-16 | 연세대학교 산학협력단 | Method for providing artificial intelligence model use service and server for performing the same |
Also Published As
Publication number | Publication date |
---|---|
KR102550574B1 (en) | 2023-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102024533B1 (en) | Methods for operating software-defined radio application | |
US6918108B2 (en) | System and method for field diagnosis of wireless communications device system software | |
CN107741851B (en) | Compiling method and device of compiling system and terminal equipment | |
KR100932058B1 (en) | Peer-to-Peer Handset Communication Systems and Methods | |
KR101796794B1 (en) | Apparatus for software-defined raido terminal and methods for distributing and installing raido applications | |
US20060223517A1 (en) | Field downloading of wireless device software | |
CN108958730B (en) | Application program component sharing method and device, terminal device and readable storage medium | |
EP2479663A1 (en) | Resource management method and system | |
CN104488349A (en) | Techniques to manage connection capabilities information in a wireless communications system | |
CN102023867B (en) | A kind of terminal secondary development device and secondary developing platform construction method | |
CN105955787A (en) | Method and device used for loading plug-in of Android system | |
CN109766099A (en) | Front end source code Compilation Method, device, storage medium and computer equipment | |
KR20170040972A (en) | Method and terminal device for running radio applications | |
CN106960140A (en) | Virtual machine instructions obscure method and device, virtual machine protection system | |
KR20160022778A (en) | Method and terminal device for running radio applications | |
KR20140126259A (en) | Terminal device for running radio applications | |
KR102550574B1 (en) | AI model connection service system using open API and service method thereof | |
CN105653331A (en) | Middleware application method and apparatus | |
KR101945941B1 (en) | Method and terminal device for running radio applications | |
CN108920246B (en) | Form draft component sharing method and device, terminal device and readable storage medium | |
CN109343970B (en) | Application program-based operation method and device, electronic equipment and computer medium | |
EP3719634A1 (en) | Starting method for multi-mode iot device, multi-mode iot device, and storage medium | |
KR101836509B1 (en) | Apparatus for software-defined radio terminal and methods for distributing and installing radio applications | |
CN106100861A (en) | The control method of a kind of data download and terminal | |
CN113986312B (en) | Software upgrading method and device, electronic equipment and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20201230 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230125 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230627 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230628 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230628 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |