استخدام Steam Agent للتفاعل مع API: دفع بيانات التجارة إلى نموذج استهلاكي للجمهور
Last updated
Last updated
مع تقدم نماذج اللغة الكبيرة (LLMs) في مجال معالجة اللغة الطبيعية، بدأ المزيد من الناس في التركيز على استخدام قدراتها لتبسيط التفاعل مع البرمجيات. في هذه الورقة، نقدم نظامًا مبتكرًا يدمج LLMs لتصنيف المدخلات الطبيعية إلى استدعاءات API المناسبة، وتوليد مجموعة بيانات عينة تلقائيًا لاستدعاء وظائف API محددة. من خلال الأوامر الطبيعية، يسمح نظامنا للمستخدمين باستدعاء وظائف API المعقدة من خلال إدخالات بسيطة، مما يزيد من كفاءة التفاعل ويقلل من عوائق استخدام API، مما يدفع مستهلكي API بالكامل نحو الجماهير غير التقنية، ويمكن أن يحقق بسرعة تجارية للوصول القابل للاستهلاك.
في السنوات الأخيرة، حققت نماذج اللغة الكبيرة (LLMs) تقدمًا ملحوظًا في مجال معالجة اللغة الطبيعية (NLP) [1، 2، 3]، حيث أظهرت أداءً ممتازًا في مهام تتراوح من توليد النصوص إلى حل المشكلات المعقدة عبر صناعات متعددة مثل المالية والرعاية الصحية والفنون وخدمة العملاء [4، 5، 6]。 هذه التقدمات أثارت أيضًا اهتمام الناس في استكشاف إمكانيات LLMs لتبسيط وتحسين التفاعل مع البرمجيات. تم البحث على نطاق واسع في تقنيات التعلم الآلي والتعلم العميق المتقدم لتعزيز تكامل أنظمة البرمجيات وتحسين التطبيقات المختلفة [7، 8، 9]。 كجزء من التطور المستمر، يتم الآن دراسة LLMs كأدوات قوية لجعل أنظمة البرمجيات أكثر بديهية وسهولة في الاستخدام لمستخدمين بمستويات تقنية مختلفة [10، 11]。
تقليديًا، يتفاعل المستخدمون مع البرمجيات من خلال واجهات برمجة التطبيقات (APIs)، والتي تعتبر ضرورية للتواصل بين تطبيقات البرمجيات المختلفة [12]。 ومع ذلك، يتطلب التفاعل مع API عادةً فهمًا عميقًا لبنيتها ومعلماتها واستدعاءاتها المحددة، مما يشكل عقبة أمام المستخدمين غير التقنيين أو غير المألوفين بالمنطق الأساسي لـ API [13]。 إن دمج LLMs في سير عمل إدارة API يوفر فرصة للتفاعل مع API من خلال إدخالات بسيطة وطبيعية، مما يفتح آفاقًا جديدة للمستخدمين بمستويات تقنية واحتياجات مختلفة [14، 15]。
ومع ذلك، فإن نشر LLMs لإدارة API ينطوي على بعض التحديات، حيث يكمن التحدي الرئيسي في ضمان قدرة النموذج على تفسير المدخلات الطبيعية بدقة وتصنيفها كاستدعاءات API الصحيحة. نظرًا لأن API لها هياكل متنوعة، وأن إدخالات المستخدم تختلف حسب السياق، فإن تطوير نظام موثوق لتقييم أداء LLM في حالات الاستخدام المختلفة أمر بالغ الأهمية. لمواجهة هذه التحديات، نقدم نظامًا جديدًا يدمج LLMs ويحتوي على وظيفتين رئيسيتين. الأولى هي استخدام LLMs لتفسير وتصنيف المدخلات الطبيعية بدقة، ورسمها بدقة إلى استدعاءات API المناسبة. الجزء الآخر هو استخدام LLM لتوليد مجموعة بيانات عينة تلقائيًا لوظائف API المحددة، وهو أمر مهم لتقييم أداء LLM في مهام تصنيف API المختلفة بشكل منهجي. على عكس الطرق التقليدية، يوفر إطارنا حلاً قابلاً للتوسع والتكرار، مما يضمن أن سير عمل API يمكن اختباره بشكل شامل بدقة عالية وارتباطه بالتطبيقات الفعلية.
قمنا بإجراء تجارب واسعة النطاق على مجموعة متنوعة من وظائف API في الصناعة باستخدام تعليمات الاستدعاء، وقمنا بتقييم قدرات التصنيف لعدة LLMs معروفة، بما في ذلك GPT-4 وGPT-4o-mini وClaude 3.5 Sonnet وGPT-4o (Aug '24) وDeepSeek-V2-Chat وDeepSeek-V2.5 وLLaMA-3-8B وGemini-1.5. أظهرت النتائج وجود اختلافات ملحوظة في أداء النماذج، حيث تم ترتيبها حسب معدل الاستعداد من الأعلى إلى الأدنى كالتالي: Claude 3.5 Sonnet وGPT-4o (Aug '24) وGPT-4o-mini. تُظهر هذه الاكتشافات إمكانيات LLMs في تصنيف API، وتؤكد على أهمية اختيار النماذج بعناية في بيئات مختلفة، وتبرز فعالية نظامنا كأداة إدارة API فعالة وعملية.
على مدار العقد الماضي، ومع التطور السريع في مجال التعلم الآلي، توسعت تطبيقاته لتشمل مجالات متعددة، مما غير بشكل جذري التكنولوجيا [16، 17]، والرعاية الصحية [18، 19، 20، 21، 22، 23]، والمالية [24]، وبناء الطرق [25] وغيرها من الصناعات. لم تحل هذه التقدمات فقط المشكلات التقنية المعقدة، بل قدمت أيضًا حلولًا مبسطة، مما عزز تجربة المستخدم [26، 27، 28]。 واحدة من أكثر الاختراقات تحولًا هي ظهور نماذج اللغة الطبيعية. من خلال الاستفادة من تقنيات التعلم العميق، تمكنت واجهات اللغة الطبيعية المستخدمين من التفاعل مع أنظمة معقدة من خلال أوامر بسيطة وبديهية [29، 30، 31، 32، 33]، مما خفض بشكل كبير من عوائق التشغيل التقنية التقليدية، وجعلها في متناول المستخدمين غير المتخصصين.
أحد التطبيقات البارزة هو في مجال استعلام البيانات، حيث يمكن للنموذج تحليل استعلامات اللغة الطبيعية وتحويلها إلى أوامر هيكلية مثل SQL، مما يسمح للموظفين غير التقنيين باسترجاع المعلومات من قواعد البيانات دون الحاجة لفهم القواعد الأساسية [34]。 بالإضافة إلى استعلام البيانات، تم دمج LLMs في أتمتة DevOps، مما يسمح للمستخدمين ببدء وإدارة سير العمل المعقد باستخدام أوامر بسيطة. هذا الدمج يبسط مهام تكوين البنية التحتية، والنشر، ومراقبة النظام، من خلال تقديم نموذج تفاعل أكثر ودية، مما يبسط مجال DevOps التقليدي المعقد [35]。
وبالمثل، يتم استكشاف إمكانيات LLMs للتفاعل مع API. على الرغم من أن النماذج الحالية مثل Codex قادرة على توليد مقاطع التعليمات البرمجية، إلا أن مجال استرجاع استدعاءات API لا يزال في حالة غير متطورة [36]。 تعقيد API، الذي غالبًا ما يتضمن بروتوكولات متعددة، وأشكال بيانات، ومعلمات محددة للمجال، يقدم تحديات فريدة.
لقد قمنا بالفعل بتنفيذ بناء وتنسيق ونشر نظام الوكلاء المتعدد قبل أن تطلق OpenAI إطار Swarm [37] التجريبي. وقد تم دفعه إلى مستوى الإنتاج، وتعريف النظام كما يلي:
إطار استرجاع API هو قناة آلية قادرة على معالجة استفسارات المستخدمين بشكل فعال، مما يضمن تصنيف كل استفسار بشكل صحيح، وتمريره إلى دالة API المناسبة، وإرجاع النتائج بكفاءة إلى المستخدم. يمكن تقسيم سير العمل الهيكلي إلى المراحل الرئيسية التالية:
يستقبل النظام أولاً استفسارات المستخدمين المدخلة باللغة الطبيعية. خلال عملية التوجيه، يتم دمج إدخال المستخدم مع التعليمات المسبقة المحددة، ثم يتم إرساله إلى LLM. تحدد هذه التعليمات هيكل API وتضع قواعد تنسيق الخرج المحددة، مما يضمن أن استجابة النظام تتوافق مع هيكل API ومتطلبات الوظيفة. قد تتراوح تعقيد الإدخال من أسئلة بسيطة إلى أوامر أكثر تعقيدًا. تتيح مرونة LLMs للنظام تفسير ومعالجة مجموعة واسعة من إدخالات المستخدم، حتى عندما تكون التعبيرات المدخلة غير واضحة.
بمجرد استلام الاستفسار، يقوم LLM المدمج بربطه بالوظائف المناسبة لـ API. بشكل محدد، يقوم LLM بمعالجة الاستفسار وإرجاع علامة تصنيف، حيث يتم تصنيفها وفقًا للهيكل المسبق المحدد لـ API. في الوقت نفسه، يتم استرجاع الكلمات الرئيسية ذات الصلة المطلوبة لمتغيرات إدخال وظيفة API. تحدد هذه العلامة وحدات API والوظائف المحددة اللازمة لتلبية طلب المستخدم. لضمان معالجة فعالة بين الموارد المتاحة، يتم استخدام موازن تحميل لتوزيع الاستفسارات الواردة.
بعد إرجاع العلامة، يقوم معرف API بطلب الخادم للحصول على المسار الذي يقوم بتقديم وظيفة API. تتضمن هذه الخطوة ربط الكلمات الرئيسية المستخرجة من الاستفسار ديناميكيًا بالمعلمات المدخلة المطلوبة لوظيفة API. على سبيل المثال، في حالة API Coingecko، يتم تنفيذ استدعاء API بعد ذلك للحصول على بيانات رد JSON.
بعد معالجة استدعاء API، يتم إرجاع النتائج بطريقة قابلة للقراءة من قبل المستخدم. تتضمن هذه الخطوة معالجة الأخطاء. إذا حدثت أي مشاكل أثناء تنفيذ API، مثل المعلمات غير الصالحة أو فشل استدعاء API، فإن النظام يقدم ملاحظات ذات صلة للمستخدم. بالإضافة إلى ذلك، تتيح ميزة سجل البحث للمستخدمين عرض الاستفسارات السابقة، مما يضيف طبقة من الوظائف للتفاعلات المتكررة.
تقوم هذه الإطار الشامل بأتمتة عملية التفاعل مع API بالكامل، مما يقلل من التدخل اليدوي إلى الحد الأدنى، ويضمن معالجة استفسارات المستخدم بكفاءة ودقة. من خلال دمج هيكل API أثناء عملية التوجيه، يضمن النظام سهولة التوسع، مما يسمح بإضافة فئات ووظائف جديدة من API حسب الحاجة.
يمكن لنماذج اللغة الكبيرة (LLMs) قراءة معلمات كائن JSON التي تعيدها API وإرجاع المحتوى إلى المستخدم بطريقة قابلة للقراءة باللغة الطبيعية، مما سيؤدي إلى سلسلة من التحولات الملحوظة، من القيود التي يهيمن عليها الفنيون إلى نموذج تجاري يمكن للمستخدمين العاديين استهلاكه، ويظهر ذلك بشكل رئيسي في الجوانب التالية:
قبل أن تشارك نماذج اللغة الكبيرة (LLMs) في معالجة بيانات API، كان استخدام API مقصورًا بشكل رئيسي على الفنيين والمطورين. غالبًا ما يفتقر المستخدمون العاديون إلى المعرفة التقنية اللازمة للتفاعل مباشرة مع API. هذه القيود تؤدي إلى عدة عيوب:
حاجز المعرفة: يحتاج المستخدمون العاديون إلى امتلاك مهارات برمجة معينة ومعرفة باستخدام API للاستفادة الفعالة من البيانات والخدمات التي تقدمها API. هذا يستبعد العديد من المستخدمين المحتملين، مما يحد من التطبيق الواسع في السوق.
التكاليف العالية: تحتاج الشركات إلى توظيف فنيين لتطوير وصيانة التكامل مع API، مما يزيد من تكاليف التشغيل. بالنسبة لمقدمي البيانات، فإن عدم استقرار قاعدة العملاء يحد من دافعهم للابتكار مرة أخرى.
بطء الاستجابة: غالبًا ما يحتاج الفنيون إلى قضاء وقت طويل في معالجة طلبات API وتحليل البيانات. هذا يؤدي إلى تأخير في الحصول على المعلومات، مما يؤثر على توقيت اتخاذ القرار.
نظرًا لأن استخدام API يتركز بشكل رئيسي في أيدي الفنيين، فإن إمكانيات السوق لم تُستغل بشكل كامل:
قاعدة المستخدمين الضيقة: فقط المستخدمون الذين لديهم خلفية تقنية يمكنهم الاستفادة الفعالة من API، مما يؤدي إلى قيود في الطلب في السوق. العديد من المستخدمين في الصناعات والقطاعات المختلفة لا يمكنهم الاستفادة من المزايا التي تقدمها API.
قيود الابتكار: الهيمنة التقنية للفنيين تحد من ملاحظات واحتياجات المستخدمين، مما يؤدي إلى نقص في التنوع والابتكار في تطوير وتحسين API. قد توجد العديد من الاحتياجات غير الملباة في السوق.
أدى إدخال LLM إلى جعل معالجة بيانات API أكثر وضوحًا وسهولة، مما يسمح للمستخدمين العاديين بالوصول بسهولة إلى البيانات التي تقدمها API واستخدامها. هذه التحولات جلبت الفوائد التالية:
خفض حاجز المعرفة: يمكن للمستخدمين التفاعل مع النظام باستخدام اللغة الطبيعية دون الحاجة إلى مهارات برمجة. وهذا يمكّن المزيد من المستخدمين غير التقنيين من المشاركة في استهلاك البيانات، مما يوسع قاعدة المستخدمين.
تحسين تجربة المستخدم: من خلال معالجة اللغة الطبيعية، يمكن للمستخدمين الحصول على المعلومات التي يحتاجونها بشكل أكثر سهولة، مما يقلل من تكاليف التعلم وعوائق الاستخدام. ستجذب هذه التجربة الودية المزيد من المستخدمين لاستخدام الخدمات ذات الصلة.
إن مشاركة LLM لا تعزز تجربة المستخدم فحسب، بل تدفع أيضًا نحو توسيع السوق والابتكار:
تنوع قاعدة المستخدمين: مع زيادة سهولة استخدام API، سيتمكن المزيد من المستخدمين من مختلف الصناعات من الاستفادة من بيانات API في اتخاذ القرارات والتحليلات. سيؤدي ذلك إلى تعزيز تنوع السوق وتلبية احتياجات المستخدمين المختلفة.
تعزيز الابتكار: سيكون من الأسهل جمع وتحليل ملاحظات واحتياجات المستخدمين، مما يعزز التحسين المستمر والابتكار في API. يمكن للشركات تطوير ميزات جديدة بناءً على احتياجات المستخدمين الفعلية، مما يعزز قدرتها التنافسية في السوق.
أدى إدخال LLM إلى جعل معالجة البيانات أكثر كفاءة، مما يمكّن المستخدمين من الحصول على المعلومات في الوقت الحقيقي واتخاذ قرارات سريعة:
تسريع سرعة الاستجابة: يمكن للمستخدمين الحصول على البيانات المطلوبة على الفور، مما يقلل من أوقات الانتظار. وهذا أمر مهم بشكل خاص في صناعة العملات المشفرة التي تتطلب اتخاذ قرارات سريعة.
زيادة كفاءة العمل: من خلال أتمتة معالجة البيانات، يمكن للمستخدمين تخصيص المزيد من الوقت للتحليل واتخاذ القرارات بدلاً من قضاء الوقت في جمع البيانات وتحليلها. سيؤدي ذلك إلى زيادة كبيرة في كفاءة العمل.
يمكن لمقدمي البيانات، من خلال التعاون مع AI Steam Labs، بناء نموذج تجاري مبتكر يدمج البيانات في نظام البحث الخاص بنا، مما يشكل وكيلًا مستقلًا يتم إدراجه في متجر الوكلاء (Agent Store) لتقديم خدمات استهلاك البيانات المريحة للمستخدمين، حيث يحصل المستخدمون على بيانات قابلة للقراءة باللغة الطبيعية. ستستكشف هذه الورقة كيفية تحقيق هذا المسار التجاري ونماذج تحقيق الدخل المحتملة.
سيكون تعاون AI Steam Labs مع مقدمي البيانات قائمًا على العناصر الأساسية التالية:
دمج البيانات: سيتم دمج واجهات برمجة التطبيقات (APIs) ومصادر البيانات لمقدمي البيانات في نظام البحث الخاص بـ AI Steam Labs، لتحويلها إلى شكل استهلاكي قابل للقراءة من قبل المستخدمين، حيث يمكنهم الوصول إلى البيانات واستهلاكها من خلال هذه المنصة.
وكيل مستقل: سيعمل مقدمو البيانات كوكيل مستقل في متجر الوكلاء (Agent Store)، مما يتيح للمستخدمين التفاعل مباشرة مع هؤلاء الوكلاء للحصول على خدمات البيانات المطلوبة.
نظام نقاط الاستهلاك: عند استهلاك البيانات على المنصة، سيستخدم المستخدمون نقاط الاستهلاك للدفع. سيتم ربط استهلاك النقاط بكمية البيانات المستخدمة (مثل استهلاك 1M توكن)، مما يشكل آلية استهلاك شفافة.
سيكون نظام نقاط الاستهلاك هو جوهر هذا النموذج التجاري، وطريقة التنفيذ المحددة هي كما يلي:
الحصول على النقاط: يمكن للمستخدمين الحصول على نقاط الاستهلاك من خلال دفع مبالغ صغيرة باستخدام عملات مستقرة، كما يمكنهم الحصول عليها من خلال مكافآت التسجيل، أو دعوة الأصدقاء، أو المشاركة في الأنشطة. سيحفز ذلك المستخدمين على المشاركة بنشاط في استخدام المنصة.
استهلاك النقاط: عند استخدام خدمات البيانات، سيتم خصم النقاط المناسبة وفقًا لكمية استهلاك 1M توكن. على سبيل المثال، إذا كانت كمية استهلاك 1M توكن تعادل 10,000 نقطة، فسيتم خصم النقاط وفقًا للكمية الفعلية المستخدمة عند استهلاك البيانات.
إدارة النقاط: ستوفر المنصة واجهة لإدارة النقاط للمستخدمين، حيث يمكنهم الاطلاع على رصيد النقاط، وسجل الاستهلاك، وطرق الحصول على النقاط في أي وقت، مما يعزز تجربة المستخدم.
لتحقيق الإيرادات، ستتبنى AI Steam Labs ومقدمو البيانات نموذج توزيع الإيرادات، كما يلي:
نسبة التوزيع: ستكون نسبة توزيع الإيرادات بين AI Steam Labs ومقدمي البيانات 3:7، حيث ستحصل AI Steam Labs على 30% من الإيرادات، بينما سيحصل مقدمو البيانات على 70% من الإيرادات. تعكس هذه النسبة أهمية مقدمي البيانات في توفير البيانات وصيانتها.
مصادر الإيرادات: ستأتي الإيرادات بشكل رئيسي من رسوم النقاط الناتجة عن استهلاك المستخدمين للبيانات على المنصة. مع توسع قاعدة المستخدمين وزيادة استهلاك البيانات، ستشهد الإيرادات زيادة ملحوظة للطرفين.
آلية تسوية شفافة: ستقوم المنصة بإنشاء آلية تسوية شفافة، حيث سيتم تسوية الإيرادات لمقدمي البيانات بشكل دوري، مما يضمن حماية مصالح الطرفين.
هذا المسار التجاري لا يخلق فقط فرص إيرادات جديدة لـ AI Steam Labs ومقدمي البيانات، بل يوفر أيضًا قيمة ملحوظة للمستخدمين:
وصول سهل إلى البيانات: يمكن للمستخدمين الوصول بسهولة إلى مجموعة متنوعة من خدمات البيانات على منصة واحدة، مما يقلل من متاعب التبديل بين منصات مختلفة.
طرق استهلاك مرنة: من خلال نقاط الاستهلاك، يمكن للمستخدمين استهلاك البيانات بمرونة وفقًا لاحتياجاتهم، مما يعزز شعورهم بالمشاركة ورضاهم.
توسيع السوق: مع انتشار استهلاك البيانات، يمكن لـ AI Steam Labs جذب المزيد من المستخدمين ومقدمي البيانات، مما يؤدي إلى توسيع حصتها في السوق بشكل أكبر.
مع التقدم المستمر في التكنولوجيا وتغير احتياجات السوق، سيتطور نموذج التعاون بين AI Steam Labs ومقدمي البيانات باستمرار. تشمل الاتجاهات المحتملة للتوسع في المستقبل:
تنويع خدمات البيانات: إدخال المزيد من أنواع مقدمي البيانات، مما يثري تنوع خدمات البيانات على المنصة لتلبية احتياجات المستخدمين المختلفة.
نظام توصية ذكي: استخدام تقنيات الذكاء الاصطناعي لتحليل سلوك استهلاك المستخدمين، وتقديم توصيات بيانات مخصصة، مما يعزز تجربة المستخدم.
التعاون عبر المنصات: التعاون مع منصات أخرى ومقدمي الخدمات لتوسيع سيناريوهات وتطبيقات استهلاك البيانات، مما يخلق نظامًا بيئيًا أوسع.
يمكن لـ AI Steam Labs بناء مسار تجاري مبتكر يحقق سهولة استهلاك البيانات وتوسيع السوق. ستوفر آلية نقاط الاستهلاك ونموذج توزيع الإيرادات فرص إيرادات مستدامة للطرفين، بينما تقدم للمستخدمين قيمة وتجربة أعلى. لا يتماشى هذا النموذج التجاري مع الاتجاهات الحالية في السوق فحسب، بل يؤسس أيضًا لقاعدة قوية للتطورات المستقبلية.
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin.Attention is all you need.In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS’17, page 6000–6010, Red Hook, NY, USA, 2017. Curran Associates Inc.
[2] Jacob Devlin.Bert: Pre-training of deep bidirectional transformers for language understanding.arXiv preprint arXiv:1810.04805, 2018.
[3] Renrui Zhang, Ziyao Zeng, Ziyu Guo, and Yafeng Li.Can language understand depth?In Proceedings of the 30th ACM International Conference on Multimedia, pages 6868–6874, 2022.
[4] Shijie Wu, Ozan Irsoy, Steven Lu, Vadim Dabravolski, Mark Dredze, Sebastian Gehrmann, Prabhanjan Kambadur, David Rosenberg, and Gideon Mann.Bloomberggpt: A large language model for finance.arXiv preprint arXiv:2303.17564, 2023.
[5] Qixin Deng, Qikai Yang, Ruibin Yuan, Yipeng Huang, Yi Wang, Xubo Liu, Zeyue Tian, Jiahao Pan, Ge Zhang, Hanfeng Lin, et al.Composerx: Multi-agent symbolic music composition with llms.arXiv preprint arXiv:2404.18081, 2024.
[6] Yixiao Yuan, Yangchen Huang, Yu Ma, Xinjin Li, Zhenglin Li, Yiming Shi, and Huapeng Zhou.Rhyme-aware chinese lyric generator based on gpt.arXiv preprint arXiv:2408.10130, 2024.
[7] Yijie Weng and Jianhao Wu.Big data and machine learning in defence.International Journal of Computer Science and Information Technology, 16(2), 2024.
[8] Yiyi Tao, Yiling Jia, Nan Wang, and Hongning Wang.The fact: Taming latent factor models for explainability with factorization trees.In Proceedings of the 42nd international ACM SIGIR conference on research and development in information retrieval, pages 295–304, 2019.
[9] Yukun Song.Deep Learning Applications in the Medical Image Recognition.American Journal of Computer Science and Technology, 2(2):22–26, July 2019.
[10] Yuelyu Ji, Zhuochun Li, Rui Meng, Sonish Sivarajkumar, Yanshan Wang, Zeshui Yu, Hui Ji, Yushui Han, Hanyu Zeng, and Daqing He.Rag-rlrc-laysum at biolaysumm: Integrating retrieval-augmented generation and readability control for layman summarization of biomedical texts.arXiv preprint arXiv:2405.13179, 2024.
[11] Tommaso Calò and Luigi De Russis.Leveraging large language models for end-user website generation.In International Symposium on End User Development, pages 52–61. Springer, 2023.
[12] Roy Thomas Fielding.Architectural styles and the design of network-based software architectures.University of California, Irvine, 2000.
[13] Cesare Pautasso, Olaf Zimmermann, and Frank Leymann.Restful web services vs.” big”’web services: making the right architectural decision.In Proceedings of the 17th international conference on World Wide Web, pages 805–814, 2008.
[14] Yaobo Liang, Chenfei Wu, Ting Song, Wenshan Wu, Yan Xia, Yu Liu, Yang Ou, Shuai Lu, Lei Ji, Shaoguang Mao, et al.Taskmatrix. ai: Completing tasks by connecting foundation models with millions of apis.Intelligent Computing, 3:0063, 2024.
[15] Yifan Song, Weimin Xiong, Dawei Zhu, Wenhao Wu, Han Qian, Mingbo Song, Hailiang Huang, Cheng Li, Ke Wang, Rong Yao, et al.Restgpt: Connecting large language models with real-world restful apis.arXiv preprint arXiv:2306.06624, 2023.
[16] Yixin Jin, Wenjing Zhou, Meiqi Wang, Meng Li, Xintao Li, Tianyu Hu, and Xingyuan Bu.Online learning of multiple tasks and their relationships: Testing on spam email data and eeg signals recorded in construction fields.arXiv preprint arXiv:2406.18311, 2024.
[17] Yiyi Tao.Meta learning enabled adversarial defense.In 2023 IEEE International Conference on Sensors, Electronics and Computer Engineering (ICSECE), pages 1326–1330. IEEE, 2023.
[18] Yiru Gong, Qimin Zhang, Huili Zheng, Zheyan Liu, and Shaohan Chen.Graphical Structural Learning of rs-fMRI data in Heavy Smokers.arXiv preprint arXiv:2409.08395, 2024.
[19] Wanyu Bian, Albert Jang, Liping Zhang, Xiaonan Yang, Zachary Stewart, and Fang Liu.Diffusion modeling with domain-conditioned prior guidance for accelerated mri and qmri reconstruction.IEEE Transactions on Medical Imaging, 2024.
[20] Yumeng Yang, Ashley Gilliam, Ethan B Ludmir, and Kirk Roberts.Exploring the generalization of cancer clinical trial eligibility classifiers across diseases.arXiv preprint arXiv:2403.17135, 2024.
[21] Huili Zheng, Qimin Zhang, Yiru Gong, Zheyan Liu, and Shaohan Chen.Identification of prognostic biomarkers for stage iii non-small cell lung carcinoma in female nonsmokers using machine learning.arXiv preprint arXiv:2408.16068, 2024.
[22] Wanyu Bian, Yunmei Chen, and Xiaojing Ye.An optimal control framework for joint-channel parallel mri reconstruction without coil sensitivities.Magnetic Resonance Imaging, 89:1–11, 2022.
[23] Xintao Li and Sibei Liu.Predicting 30-day hospital readmission in medicare patients: Insights from an lstm deep learning model.medRxiv, 2024.doi:10.1101/2024.09.08.24313212.
[24] Siqiao Zhao, Zhikang Dong, Zeyu Cao, and Raphael Douady.Hedge fund portfolio construction using polymodel theory and itransformer.arXiv preprint arXiv:2408.03320, 2024.
[25] Han-Cheng Dan, Peng Yan, Jiawei Tan, Yinchao Zhou, and Bingjie Lu.Multiple distresses detection for asphalt pavement using improved you only look once algorithm based on convolutional neural network.International Journal of Pavement Engineering, 25(1):2308169, 2024.
[26] Yunyi Zhu, Cedric Honnet, Yixiao Kang, Junyi Zhu, Angelina J Zheng, Kyle Heinz, Grace Tang, Luca Musk, Michael Wessely, and Stefanie Mueller.Demonstration of chromocloth: Re-programmable multi-color textures through flexible and portable light source.In Adjunct Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, pages 1–3, 2023.
[27] Yukun Song, Parth Arora, Rajandeep Singh, Srikanth T. Varadharajan, Malcolm Haynes, and Thad Starner.Going Blank Comfortably: Positioning Monocular Head-Worn Displays When They are Inactive.In Proceedings of the 2023 International Symposium on Wearable Computers, pages 114–118, Cancun, Quintana Roo Mexico, October 2023. ACM.
[28] Yixiao Kang, Zhenglin Zhang, Meiqi Zhao, Xuanhui Yang, and Xubo Yang.Tie memories to e-souvenirs: Hybrid tangible ar souvenirs in the museum.In Adjunct Proceedings of the 35th Annual ACM Symposium on User Interface Software and Technology, pages 1–3, 2022.
[29] Xinhao Zhang, Zaitian Wang, Lu Jiang, Wanfu Gao, Pengfei Wang, and Kunpeng Liu.Tfwt: Tabular feature weighting with transformer.arXiv preprint arXiv:2405.08403, 2024.
[30] Yuelyu Ji, Yuhe Gao, Runxue Bao, Qi Li, Disheng Liu, Yiming Sun, and Ye Ye.Prediction of covid-19 patients’ emergency room revisit using multi-source transfer learning.In 2023 IEEE 11th International Conference on Healthcare Informatics (ICHI), pages 138–144. IEEE, 2023.
[31] Ziyao Zeng, Daniel Wang, Fengyu Yang, Hyoungseob Park, Stefano Soatto, Dong Lao, and Alex Wong.Wordepth: Variational language prior for monocular depth estimation.In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 9708–9719, 2024.
[32] Xiaojing Fan and Chunliang Tao.Towards resilient and efficient llms: A comparative study of efficiency, performance, and adversarial robustness.arXiv preprint arXiv:2408.04585, 2024.
[33] Jinghan Zhang, Xiting Wang, Yiqiao Jin, Changyu Chen, Xinhao Zhang, and Kunpeng Liu.Prototypical reward network for data-efficient rlhf.arXiv preprint arXiv:2406.06606, 2024.
[34] Muhammad Shahzaib Baig, Azhar Imran, Aman Ullah Yasin, Abdul Haleem Butt, and Muhammad Imran Khan.Natural language to sql queries: A review.International Journal of Innovations in Science Technology, 4:147–162, 2022.
[35] Deep Mehta, Kartik Rawool, Subodh Gujar, and Bowen Xu.Automated devops pipeline generation for code repositories using large language models.arXiv preprint arXiv:2312.13225, 2023.
[36] Gabriel Poesia, Oleksandr Polozov, Vu Le, Ashish Tiwari, Gustavo Soares, Christopher Meek, and Sumit Gulwani.Synchromesh: Reliable code generation from pre-trained language models.arXiv preprint arXiv:2201.11227, 2022.