Steam Agent를 이용한 API 상호작용: 데이터를 대중이 소비할 수 있는 형태로 상업화하기
Last updated
Last updated
대규모 언어 모델(LLMs)의 자연어 처리 분야에서의 발전에 따라, 점점 더 많은 사람들이 이들의 능력을 활용하여 소프트웨어 상호작용을 간소화하는 데 관심을 가지게 되었습니다. 본 논문에서는 자연어 입력을 해당 API 호출로 분류하고 특정 API 기능을 호출하는 샘플 데이터 세트를 자동으로 생성하는 새로운 시스템을 제안합니다. 자연어 명령을 통해, 우리의 시스템은 사용자가 간단한 입력으로 복잡한 API 기능을 호출할 수 있도록 하여 상호작용 효율성을 높이고 API 사용 장벽을 낮춥니다. 이를 통해 API 소비자는 비기술적 집단으로 전환되며, 소비 가능한 접근의 상업화를 신속하게 실현할 수 있습니다.
최근 몇 년 동안, 대규모 언어 모델(LLMs)은 자연어 처리(NLP) 분야에서显著한 발전을 이루었으며[1, 2, 3] 텍스트 생성에서 금융, 의료, 예술 및 고객 서비스 등 여러 산업의 복잡한 문제 해결에 이르기까지 다양한 작업에서 뛰어난 성능을 보여주었습니다[4, 5, 6]。 이러한 발전은 LLMs가 소프트웨어 상호작용을 간소화하고 최적화할 수 있는 잠재력에 대한 탐구를 더욱 촉진했습니다. 기계 학습과 고급 딥러닝 기술은 소프트웨어 시스템의 통합을 강화하고 다양한 응용 프로그램을 최적화하기 위해 광범위하게 연구되었습니다[7, 8, 9]。 추가 발전으로, LLMs는 다양한 기술 수준의 사용자에게 소프트웨어 시스템을 보다 직관적이고 사용하기 쉽게 만드는 강력한 도구로 연구되고 있습니다[10, 11]。
전통적으로, 사용자는 응용 프로그램 프로그래밍 인터페이스(API)를 통해 소프트웨어와 상호작용하며, 이러한 인터페이스는 서로 다른 소프트웨어 응용 프로그램 간의 통신에 필수적입니다[12]。 그러나 API와 상호작용하려면 일반적으로 그 구조, 매개변수 및 특정 호출에 대한 깊은 이해가 필요하며, 이는 비기술 사용자나 API의 기본 논리에 익숙하지 않은 사용자에게 장애물이 됩니다[13]。 LLMs를 API 관리 워크플로우에 통합함으로써, 간단하고 자연어 입력을 통해 API와 상호작용할 수 있는 기회를 제공하며, 이는 다양한 기술 수준과 요구를 가진 사용자에게 새로운 가능성을 열어줍니다[14, 15]。
그러나 LLMs를 API 관리에 배포하는 데는 몇 가지 도전 과제가 있으며, 주로 모델이 자연어 입력을 정확하게 해석하고 올바른 API 호출로 분류할 수 있도록 보장하는 데 있습니다. API는 다양한 구조를 가지고 있으며, 사용자 입력은 문맥에 따라 다르기 때문에, 다양한 사용 사례에서 LLM의 성능을 평가할 수 있는 신뢰할 수 있는 시스템을 개발하는 것이 중요합니다. 이러한 도전 과제에 대응하기 위해, 우리는 LLMs를 통합한 새로운 시스템을 제안하며, 두 가지 핵심 기능을 갖추고 있습니다. 첫째, LLMs를 활용하여 자연어 입력을 해석하고 분류하며, 이를 정확하게 해당 API 호출에 매핑합니다. 둘째, LLM을 사용하여 특정 API 기능에 대한 샘플 데이터 세트를 자동으로 생성하는 것입니다. 이는 다양한 API 분류 작업에서 LLM의 성능을 체계적으로 평가하는 데 중요합니다. 전통적인 방법과는 달리, 우리의 프레임워크는 확장 가능하고 재현 가능한 솔루션을 제공하여 API 워크플로우가 높은 정확성과 실제 응용 프로그램과의 관련성을 가지고 포괄적으로 테스트될 수 있도록 보장합니다.
우리는 호출 지시를 사용하여 업계의 다양한 API 기능에 대한 광범위한 실험을 수행하고, GPT-4, GPT-4o-mini, Claude 3.5 Sonnet, GPT-4o (Aug '24), DeepSeek-V2-Chat, DeepSeek-V2.5, LLaMA-3-8B, Gemini-1.5 등 여러 유명 LLM의 분류 능력을 평가했습니다. 결과는 모델 성능에 상당한 차이가 있음을 보여주었으며, 준비율에 따라 높은 순서부터 낮은 순서로 나열하면 Claude 3.5 Sonnet, GPT-4o (Aug '24), GPT-4o-mini입니다. 이러한 발견은 API 분류에서 LLM의 잠재력을 보여주며, 다양한 환경에서 모델을 신중하게 선택하는 것의 중요성을 강조하고, 우리의 시스템이 효율적이고 실용적인 모듈식 API 관리 도구로서의 유효성을 부각시킵니다.
지난 10년 동안, 기계 학습 분야의 급속한 발전에 따라 그 응용은 여러 분야로 확장되어 기술[16, 17], 의료[18, 19, 20, 21, 22, 23], 금융[24], 도로 건설[25] 등 산업을 근본적으로 변화시켰습니다. 이러한 발전은 복잡한 기술적 문제를 해결할 뿐만 아니라, 간소화된 솔루션을 제공하여 사용자 경험을 향상시켰습니다[26, 27, 28]。가장 혁신적인 돌파구 중 하나는 자연어 모델의 부상입니다. 딥러닝 기술을 활용함으로써, 자연어 인터페이스는 사용자가 간단하고 직관적인 명령을 통해 복잡한 시스템과 상호작용할 수 있게 하여[29, 30, 31, 32, 33] 전통적인 기술 조작의 장벽을 크게 낮추고 비전문 사용자에게도 접근 가능하게 만들었습니다.
눈에 띄는 응용 중 하나는 데이터 쿼리 분야로, 모델은 자연어 쿼리를 해석하고 이를 SQL과 같은 구조화된 명령으로 변환할 수 있어 비기술자가 기본 문법을 이해하지 않고도 데이터베이스에서 정보를 검색할 수 있게 합니다[34]。데이터 쿼리 외에도, LLMs는 DevOps 자동화에 통합되어 사용자가 간단한 명령으로 복잡한 워크플로를 시작하고 관리할 수 있도록 합니다. 이러한 통합은 인프라 구성, 배포 및 시스템 모니터링과 같은 작업을 간소화하며, 보다 친숙한 상호작용 모델을 제공하여 전통적으로 복잡한 DevOps 분야를 단순화합니다[35]。
마찬가지로, LLMs의 잠재력은 API 상호작용에도 탐색되고 있습니다. 기존 모델인 Codex가 코드 스니펫을 생성할 수 있지만, API 호출 검색 분야는 여전히 미개발 상태에 있습니다[36]。API의 복잡성은 일반적으로 여러 프로토콜, 데이터 형식 및 도메인 특정 매개변수를 포함하므로 독특한 도전 과제를 제공합니다.
우리는 OpenAI가 Swarm [37]라는 실험적 프레임워크를 발표하기 전에 다중 에이전트 시스템의 구축, 조정 및 배포를 이미 실현했습니다. 그리고 이를 프로덕션 수준으로 끌어올렸습니다. 시스템의 정의는 다음과 같습니다:
API 검색 프레임워크는 사용자 쿼리를 효과적으로 처리할 수 있는 자동화된 파이프라인으로, 각 쿼리가 올바르게 분류되고 해당 API 함수에 전달되며 결과가 효율적으로 사용자에게 반환되도록 보장합니다. 그 구조화된 작업 흐름은 다음의 주요 단계로 나눌 수 있습니다:
시스템은 먼저 사용자로부터 자연어 쿼리를 수신합니다. 프롬프트 과정에서 사용자의 입력은 미리 정의된 프롬프트 지침과 결합되어 LLM에 전달됩니다. 이러한 지침은 API의 계층 구조를 정의하고 특정 출력 형식 규칙을 설정하여 시스템의 응답이 API의 구조와 기능 요구 사항에 부합하도록 보장합니다. 입력의 복잡성은 간단한 질문에서부터 더 복잡한 명령까지 다양할 수 있습니다. LLM의 유연성 덕분에 시스템은 광범위한 사용자 입력을 해석하고 처리할 수 있으며, 입력 표현이 모호하더라도 대응할 수 있습니다.
쿼리를 수신하면 통합된 LLM은 이를 해당 API 기능에 매핑합니다. 구체적으로, LLM은 쿼리를 처리하고 미리 정의된 API 계층 구조에 따라 분류된 라벨을 반환합니다. 동시에 API 기능의 입력 매개변수에 필요한 관련 키워드가 검색됩니다. 이 라벨은 사용자 요청을 충족하는 데 필요한 API 모듈과 구체적인 기능을 결정합니다. 사용 가능한 리소스 간의 효율적인 처리를 보장하기 위해 로드 밸런서가 도입되어 수신된 쿼리를 분배합니다.
라벨이 반환된 후, API 식별자는 서버에 요청하여 API 기능을 렌더링하는 경로를 가져옵니다. 이 단계에서는 쿼리에서 추출된 키워드를 동적으로 API 기능에 필요한 입력 매개변수에 매핑합니다. 예를 들어, Coingecko API의 경우, 이후 API 호출을 실행하여 JSON 형식의 피드백 데이터를 얻습니다.
API 호출 처리가 완료된 후, 결과는 사용자에게 읽기 쉬운 형식으로 반환됩니다. 이 단계에는 오류 처리도 포함됩니다. API 실행 중에 문제가 발생한 경우, 예를 들어 무효한 매개변수나 API 호출 실패와 같은 경우, 시스템은 사용자에게 관련 피드백을 제공합니다. 또한, 검색 기록 기능을 통해 사용자는 과거의 쿼리를 확인할 수 있어 반복적인 상호작용에 추가적인 기능을 제공합니다.
이 엔드 투 엔드 프레임워크는 전체 API 상호작용 프로세스를 자동화하여 수동 개입을 최소화하고, 사용자 쿼리가 효율적이고 정확하게 처리되도록 보장합니다. 프롬프트 과정에서 API 계층 구조를 통합하여 시스템이 확장하기 쉬우며, 필요에 따라 새로운 API 카테고리와 기능을 추가할 수 있도록 합니다.
대규모 언어 모델(LLM)은 API가 반환하는 JSON 객체의 매개변수를 읽고 그 내용을 자연어로 읽기 쉬운 형식으로 사용자에게 반환할 수 있습니다. 이는 기술자 주도의 제한에서 일반 사용자가 소비할 수 있는 비즈니스 모델로의 전환을 가져오며, 주로 다음과 같은 몇 가지 측면에서显著한 변화를 가져옵니다:
대규모 언어 모델(LLM)이 API 데이터 처리에 참여하기 전, API의 사용은 주로 기술자와 개발자에게 국한되었습니다. 일반 사용자는 필요한 기술 지식이 부족하여 API와 직접 상호작용할 수 없습니다. 이러한 제한은 다음과 같은 몇 가지 단점을 초래합니다:
지식 장벽: 일반 사용자는 API가 제공하는 데이터와 서비스를 효과적으로 활용하기 위해 일정 수준의 프로그래밍 기술과 API 사용 지식을 갖추어야 합니다. 이로 인해 많은 잠재적 사용자가 배제되어 시장의 광범위한 응용이 제한됩니다.
높은 비용: 기업은 API 통합을 개발하고 유지하기 위해 기술자를 고용해야 하며, 이는 운영 비용을 증가시킵니다. 데이터 제공자에게는 불안정한 고객 기반이 재혁신의 동기를 제한합니다.
응답 속도 저하: 기술자는 API 요청을 처리하고 데이터를 분석하는 데 많은 시간을 소모하는 경우가 많습니다. 이로 인해 정보 획득의 지연이 발생하고, 의사 결정의 시의성이 영향을 받습니다.
API의 사용이 주로 기술자의 손에 집중되어 있기 때문에 시장의 잠재력이 충분히 발휘되지 못하고 있습니다:
사용자층의 좁음: 기술적 배경을 가진 사용자만이 API를 효과적으로 활용할 수 있어 시장 수요가 제한됩니다. 많은 산업과 분야의 사용자들은 API가 제공하는 편리함을 누릴 수 없습니다.
혁신의 제한: 기술자의 주도적 지위는 사용자 피드백과 요구를 제한하여 API의 개발과 개선에 다양성과 혁신성이 결여되게 합니다. 시장에는 많은 충족되지 않은 요구가 존재할 수 있습니다.
LLM의 도입은 API 데이터 처리를 더욱 직관적이고 사용하기 쉽게 만들어, 일반 사용자도 API가 제공하는 데이터에 쉽게 접근하고 활용할 수 있게 합니다. 이러한 변화는 다음과 같은 이점을 가져옵니다:
지식 장벽 낮추기: 사용자는 자연어를 통해 시스템과 상호작용할 수 있어 프로그래밍 기술이 필요하지 않습니다. 이로 인해 더 많은 비기술적 사용자가 데이터 소비에 참여할 수 있게 되어 사용자 기반이 확대됩니다.
사용자 경험 향상: 자연어 처리를 통해 사용자는 필요한 정보를 더 편리하게 얻을 수 있으며, 학습 비용과 사용 장벽이 줄어듭니다. 이러한 친숙한 사용자 경험은 더 많은 사용자가 관련 서비스를 이용하도록 유도할 것입니다.
LLM의 참여는 사용자 경험을 향상시킬 뿐만 아니라 시장의 확장과 혁신을 촉진합니다:
다양한 사용자층: API의 사용 용이성이 높아짐에 따라, 더 많은 산업의 사용자들이 API 데이터를 활용하여 의사결정 및 분석을 할 수 있게 됩니다. 이는 시장의 다양화를 촉진하고 다양한 사용자 요구를 충족시킬 것입니다.
혁신 촉진: 사용자 피드백과 요구가 더 쉽게 수집되고 분석될 수 있어 API의 지속적인 개선과 혁신을 촉진합니다. 기업은 사용자 실제 요구에 따라 새로운 기능을 개발하여 시장 경쟁력을 높일 수 있습니다.
LLM의 도입은 데이터 처리를 더욱 효율적으로 만들어 사용자가 실시간으로 정보를 얻고 빠른 의사결정을 할 수 있게 합니다:
응답 속도 향상: 사용자는 필요한 데이터를 즉시 얻을 수 있어 대기 시간이 줄어듭니다. 이는 빠른 의사결정이 필요한 암호화폐 산업에서 특히 중요합니다.
작업 효율성 향상: 데이터 처리를 자동화함으로써 사용자는 데이터 수집 및 분석에 소요되는 시간을 줄이고, 분석 및 의사결정에 더 많은 시간을 투자할 수 있습니다. 이는 작업 효율성을 크게 향상시킬 것입니다.
데이터 제공자는 AI Steam Labs와 협력하여 데이터를 우리의 검색 시스템에 통합하고 독립적인 에이전트를 형성하는 혁신적인 비즈니스 모델을 구축할 수 있습니다. 이 에이전트는 Agent Store에 등록되어 사용자에게 편리한 데이터 소비 서비스를 제공하며, 사용자는 자연어로 읽을 수 있는 데이터를 얻게 됩니다. 본 논문에서는 이 비즈니스 경로의 구현 방법과 잠재적인 수익화 모델에 대해 논의합니다.
AI Steam Labs와 데이터 제공자의 협력은 다음의 몇 가지 핵심 요소에 기반합니다:
데이터 통합: 데이터 제공자의 API와 데이터 소스를 AI Steam Labs의 검색 시스템에 통합하여 사용자에게 읽기 쉬운 소비 형태로 변환합니다. 사용자는 이 플랫폼을 통해 데이터에 접근하고 소비할 수 있습니다.
독립 에이전트: 데이터 제공자는 독립적인 에이전트로서 Agent Store에서 운영되며, 사용자는 이러한 에이전트와 직접 상호작용하여 필요한 데이터 서비스를 얻을 수 있습니다.
소비 포인트 시스템: 사용자가 플랫폼에서 데이터를 소비할 때 소비 포인트를 사용하여 결제합니다. 포인트의 소비는 데이터 사용량(예: 1M 토큰의 소비량)과 연동되어 투명한 소비 메커니즘을 형성합니다.
소비 포인트 시스템은 이 비즈니스 모델의 핵심이 될 것이며, 구체적인 구현 방법은 다음과 같습니다:
포인트 획득: 사용자는 안정적인 통화를 통해 소액 결제를 하여 소비 포인트를 획득할 수 있으며, 등록 보상, 친구 추천, 이벤트 참여 등을 통해서도 포인트를 얻을 수 있습니다. 이는 사용자가 플랫폼 사용에 적극적으로 참여하도록 유도합니다.
포인트 소비: 사용자가 데이터 서비스를 이용할 때, 1M 토큰의 소비량에 따라 해당 포인트가 차감됩니다. 예를 들어, 1M 토큰의 소비량이 10,000 포인트인 경우, 사용자는 데이터 소비 시 실제 사용량에 따라 해당 포인트가 차감됩니다.
포인트 관리: 플랫폼은 사용자에게 포인트 관리 인터페이스를 제공하여 사용자가 언제든지 포인트 잔액, 소비 기록 및 획득 방법을 확인할 수 있도록 하여 사용자 경험을 향상시킵니다.
수익을 실현하기 위해 AI Steam Labs와 데이터 제공자는 수익 분배 모델을 채택합니다. 구체적인 내용은 다음과 같습니다:
분배 비율: AI Steam Labs와 데이터 제공자의 분배 비율은 3:7로, AI Steam Labs는 수익의 30%를, 데이터 제공자는 70%를 차지합니다. 이 비율은 데이터 제공자가 데이터 제공 및 유지 관리에서 중요한 역할을 하고 있음을 반영합니다.
수익 원천: 수익은 주로 사용자가 플랫폼에서 데이터 소비로 발생하는 포인트 비용에서 발생합니다. 사용자 기반이 확대되고 데이터 소비가 증가함에 따라 양측의 수익은 상당한 성장을 이룰 것입니다.
투명한 정산 메커니즘: 플랫폼은 투명한 정산 메커니즘을 구축하여 정기적으로 데이터 제공자에게 수익을 정산함으로써 양측의 이익이 보장되도록 합니다.
이 비즈니스 경로는 AI Steam Labs와 데이터 제공자에게 새로운 수익 기회를 창출할 뿐만 아니라 사용자에게도 상당한 가치를 제공합니다:
편리한 데이터 접근: 사용자는 하나의 플랫폼에서 다양한 데이터 서비스에 쉽게 접근할 수 있어, 여러 플랫폼 간의 전환에 따른 번거로움을 줄입니다.
유연한 소비 방식: 소비 포인트를 통해 사용자는 자신의 필요에 따라 데이터를 유연하게 소비할 수 있어, 참여감과 만족도가 향상됩니다.
시장 확장: 데이터 소비의 보편화에 따라 AI Steam Labs는 더 많은 사용자와 데이터 제공자를 유치할 수 있으며, 이를 통해 시장 점유율을 더욱 확대할 수 있습니다.
기술의 지속적인 발전과 시장 수요의 변화에 따라 AI Steam Labs와 데이터 제공자의 협력 모델은 계속해서 진화할 것입니다. 미래에 가능한 확장 방향은 다음과 같습니다:
다양한 데이터 서비스: 더 많은 유형의 데이터 제공자를 도입하여 플랫폼의 데이터 서비스 종류를 풍부하게 하고, 다양한 사용자 요구를 충족합니다.
스마트 추천 시스템: AI 기술을 활용하여 사용자의 소비 행동을 분석하고 개인화된 데이터 추천을 제공하여 사용자 경험을 향상시킵니다.
크로스 플랫폼 협력: 다른 플랫폼 및 서비스 제공자와 협력하여 데이터 소비의 시나리오와 응용을 확장하고, 보다 광범위한 생태계를 형성합니다.
AI Steam Labs는 혁신적인 비즈니스 경로를 구축하여 데이터 소비의 편리함과 시장의 확장을 실현할 수 있습니다. 소비 포인트 메커니즘과 수익 분배 모델은 양측에 지속 가능한 수익 기회를 창출하는 동시에 사용자에게 더 높은 가치와 경험을 제공합니다. 이 비즈니스 모델은 현재의 시장 트렌드에 부합할 뿐만 아니라, 미래의 발전을 위한 견고한 기반을 마련합니다.
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin.Attention is all you need.In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS’17, page 6000–6010, Red Hook, NY, USA, 2017. Curran Associates Inc.
[2] Jacob Devlin.Bert: Pre-training of deep bidirectional transformers for language understanding.arXiv preprint arXiv:1810.04805, 2018.
[3] Renrui Zhang, Ziyao Zeng, Ziyu Guo, and Yafeng Li.Can language understand depth?In Proceedings of the 30th ACM International Conference on Multimedia, pages 6868–6874, 2022.
[4] Shijie Wu, Ozan Irsoy, Steven Lu, Vadim Dabravolski, Mark Dredze, Sebastian Gehrmann, Prabhanjan Kambadur, David Rosenberg, and Gideon Mann.Bloomberggpt: A large language model for finance.arXiv preprint arXiv:2303.17564, 2023.
[5] Qixin Deng, Qikai Yang, Ruibin Yuan, Yipeng Huang, Yi Wang, Xubo Liu, Zeyue Tian, Jiahao Pan, Ge Zhang, Hanfeng Lin, et al.Composerx: Multi-agent symbolic music composition with llms.arXiv preprint arXiv:2404.18081, 2024.
[6] Yixiao Yuan, Yangchen Huang, Yu Ma, Xinjin Li, Zhenglin Li, Yiming Shi, and Huapeng Zhou.Rhyme-aware chinese lyric generator based on gpt.arXiv preprint arXiv:2408.10130, 2024.
[7] Yijie Weng and Jianhao Wu.Big data and machine learning in defence.International Journal of Computer Science and Information Technology, 16(2), 2024.
[8] Yiyi Tao, Yiling Jia, Nan Wang, and Hongning Wang.The fact: Taming latent factor models for explainability with factorization trees.In Proceedings of the 42nd international ACM SIGIR conference on research and development in information retrieval, pages 295–304, 2019.
[9] Yukun Song.Deep Learning Applications in the Medical Image Recognition.American Journal of Computer Science and Technology, 2(2):22–26, July 2019.
[10] Yuelyu Ji, Zhuochun Li, Rui Meng, Sonish Sivarajkumar, Yanshan Wang, Zeshui Yu, Hui Ji, Yushui Han, Hanyu Zeng, and Daqing He.Rag-rlrc-laysum at biolaysumm: Integrating retrieval-augmented generation and readability control for layman summarization of biomedical texts.arXiv preprint arXiv:2405.13179, 2024.
[11] Tommaso Calò and Luigi De Russis.Leveraging large language models for end-user website generation.In International Symposium on End User Development, pages 52–61. Springer, 2023.
[12] Roy Thomas Fielding.Architectural styles and the design of network-based software architectures.University of California, Irvine, 2000.
[13] Cesare Pautasso, Olaf Zimmermann, and Frank Leymann.Restful web services vs.” big”’web services: making the right architectural decision.In Proceedings of the 17th international conference on World Wide Web, pages 805–814, 2008.
[14] Yaobo Liang, Chenfei Wu, Ting Song, Wenshan Wu, Yan Xia, Yu Liu, Yang Ou, Shuai Lu, Lei Ji, Shaoguang Mao, et al.Taskmatrix. ai: Completing tasks by connecting foundation models with millions of apis.Intelligent Computing, 3:0063, 2024.
[15] Yifan Song, Weimin Xiong, Dawei Zhu, Wenhao Wu, Han Qian, Mingbo Song, Hailiang Huang, Cheng Li, Ke Wang, Rong Yao, et al.Restgpt: Connecting large language models with real-world restful apis.arXiv preprint arXiv:2306.06624, 2023.
[16] Yixin Jin, Wenjing Zhou, Meiqi Wang, Meng Li, Xintao Li, Tianyu Hu, and Xingyuan Bu.Online learning of multiple tasks and their relationships: Testing on spam email data and eeg signals recorded in construction fields.arXiv preprint arXiv:2406.18311, 2024.
[17] Yiyi Tao.Meta learning enabled adversarial defense.In 2023 IEEE International Conference on Sensors, Electronics and Computer Engineering (ICSECE), pages 1326–1330. IEEE, 2023.
[18] Yiru Gong, Qimin Zhang, Huili Zheng, Zheyan Liu, and Shaohan Chen.Graphical Structural Learning of rs-fMRI data in Heavy Smokers.arXiv preprint arXiv:2409.08395, 2024.
[19] Wanyu Bian, Albert Jang, Liping Zhang, Xiaonan Yang, Zachary Stewart, and Fang Liu.Diffusion modeling with domain-conditioned prior guidance for accelerated mri and qmri reconstruction.IEEE Transactions on Medical Imaging, 2024.
[20] Yumeng Yang, Ashley Gilliam, Ethan B Ludmir, and Kirk Roberts.Exploring the generalization of cancer clinical trial eligibility classifiers across diseases.arXiv preprint arXiv:2403.17135, 2024.
[21] Huili Zheng, Qimin Zhang, Yiru Gong, Zheyan Liu, and Shaohan Chen.Identification of prognostic biomarkers for stage iii non-small cell lung carcinoma in female nonsmokers using machine learning.arXiv preprint arXiv:2408.16068, 2024.
[22] Wanyu Bian, Yunmei Chen, and Xiaojing Ye.An optimal control framework for joint-channel parallel mri reconstruction without coil sensitivities.Magnetic Resonance Imaging, 89:1–11, 2022.
[23] Xintao Li and Sibei Liu.Predicting 30-day hospital readmission in medicare patients: Insights from an lstm deep learning model.medRxiv, 2024.doi:10.1101/2024.09.08.24313212.
[24] Siqiao Zhao, Zhikang Dong, Zeyu Cao, and Raphael Douady.Hedge fund portfolio construction using polymodel theory and itransformer.arXiv preprint arXiv:2408.03320, 2024.
[25] Han-Cheng Dan, Peng Yan, Jiawei Tan, Yinchao Zhou, and Bingjie Lu.Multiple distresses detection for asphalt pavement using improved you only look once algorithm based on convolutional neural network.International Journal of Pavement Engineering, 25(1):2308169, 2024.
[26] Yunyi Zhu, Cedric Honnet, Yixiao Kang, Junyi Zhu, Angelina J Zheng, Kyle Heinz, Grace Tang, Luca Musk, Michael Wessely, and Stefanie Mueller.Demonstration of chromocloth: Re-programmable multi-color textures through flexible and portable light source.In Adjunct Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, pages 1–3, 2023.
[27] Yukun Song, Parth Arora, Rajandeep Singh, Srikanth T. Varadharajan, Malcolm Haynes, and Thad Starner.Going Blank Comfortably: Positioning Monocular Head-Worn Displays When They are Inactive.In Proceedings of the 2023 International Symposium on Wearable Computers, pages 114–118, Cancun, Quintana Roo Mexico, October 2023. ACM.
[28] Yixiao Kang, Zhenglin Zhang, Meiqi Zhao, Xuanhui Yang, and Xubo Yang.Tie memories to e-souvenirs: Hybrid tangible ar souvenirs in the museum.In Adjunct Proceedings of the 35th Annual ACM Symposium on User Interface Software and Technology, pages 1–3, 2022.
[29] Xinhao Zhang, Zaitian Wang, Lu Jiang, Wanfu Gao, Pengfei Wang, and Kunpeng Liu.Tfwt: Tabular feature weighting with transformer.arXiv preprint arXiv:2405.08403, 2024.
[30] Yuelyu Ji, Yuhe Gao, Runxue Bao, Qi Li, Disheng Liu, Yiming Sun, and Ye Ye.Prediction of covid-19 patients’ emergency room revisit using multi-source transfer learning.In 2023 IEEE 11th International Conference on Healthcare Informatics (ICHI), pages 138–144. IEEE, 2023.
[31] Ziyao Zeng, Daniel Wang, Fengyu Yang, Hyoungseob Park, Stefano Soatto, Dong Lao, and Alex Wong.Wordepth: Variational language prior for monocular depth estimation.In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 9708–9719, 2024.
[32] Xiaojing Fan and Chunliang Tao.Towards resilient and efficient llms: A comparative study of efficiency, performance, and adversarial robustness.arXiv preprint arXiv:2408.04585, 2024.
[33] Jinghan Zhang, Xiting Wang, Yiqiao Jin, Changyu Chen, Xinhao Zhang, and Kunpeng Liu.Prototypical reward network for data-efficient rlhf.arXiv preprint arXiv:2406.06606, 2024.
[34] Muhammad Shahzaib Baig, Azhar Imran, Aman Ullah Yasin, Abdul Haleem Butt, and Muhammad Imran Khan.Natural language to sql queries: A review.International Journal of Innovations in Science Technology, 4:147–162, 2022.
[35] Deep Mehta, Kartik Rawool, Subodh Gujar, and Bowen Xu.Automated devops pipeline generation for code repositories using large language models.arXiv preprint arXiv:2312.13225, 2023.
[36] Gabriel Poesia, Oleksandr Polozov, Vu Le, Ashish Tiwari, Gustavo Soares, Christopher Meek, and Sumit Gulwani.Synchromesh: Reliable code generation from pre-trained language models.arXiv preprint arXiv:2201.11227, 2022.