our products
aps平台功能基于docker实现容器化封装,底层计算资源支持aps集群、hadoop集群和gpu集群等多种模式,实现合理的计算资源利用。
通过序列化和反序列化完成模块之间数据交换,支持实现单机和分布式数据格式转换、不同语言之间数据转换、不同存储介质之间数据转换。
平台算子封装支持多语言模式,允许在同一个工作流中调用不同开发语言算子,同时支持工作流程嵌套,提升灵活性和复用性。
内置100多种算法模型,包括企业常用的统计分析、机器学习、深度学习算法,面向数据分析应用提供基础算法支持。
集成web ide环境,支持r、python、scala等常用数据分析语言,基于docker技术实现算子的灵活封装、集成,并支持发布到已有算法库中。
集成多种机器学习引擎(tensorflow、caffee、h2o等)并可开展协同工作。
无缝集成hadoop集群,利用spark分布式内存计算提供强大的计算能力,实现全量数据分析。
模型生产化,支持与实时流计算平台(rt)的无缝集成,实现模型结果数据在生产系统的实时消费。
平台提供的算子模块包括数据准备、特征工程、模型训练、模型评估、模型对比、模型发布,涵盖模型生产的标准流程,实现图形化、拖拽式工程建模。
通过配置目标实现自动化建模,支持自动算法选择、自动超参数优化、自动模型评估、自动模型选择。
通过模型仓库模块实现对模型的版本管理,支持基于版本的模型生产上线、生产下线以及模型删除等操作。
平台提供的算子及生产的模型以运行在docker容器内的微服务形式自动发布,实现与现有环境的融合以及功能复用。
一站式完成模型开发、调试、测试以及生产上线的各流程,实现持续集成、持续交付。
基于平台的工程化能力实现模型定期优化、自动更新。
支持团队不同角色(专家级数据科学家、数据分析师、编码人员、业务人员)成员之间协同开发,提升开发效率。
支持模块共享,避免重复性工作。
集成可视化配置建模与ide自定义编码环境,一站式完成数据科学应用从设计到生产的全部环节,适应数据应用快节奏的开发要求。
支持多种数据连接器,轻松获取各类数据源的数据,包括本地数据、关系型数据库的数据、hadoop大数据平台数据(hdfs、hive等)。
aps支持分布式任务,可自动完成hadoop、spark的环境调用和任务分发执行,对使用者屏蔽了大数据技术组件的复杂性,使数据分析人员轻松获得大数据处理能力。
基于docker容器的自定义模块封装发布,一次编程,多处使用,可积累的模块库成为公司重要的智力资产,提升新模型的开发效率。
使用容器技术实现模块封装、调用,实现拖拽式建模工作流设计,提升建模效率。
通过界面配置基础数据和业务目标,实现一键式建模,自动完成算法建模、模型评估、模型选择,降低建模门槛。
自动选择最优模型,实现自动模型发布功能,面向生产系统提供标准rest api调用服务。
企业私有环境部署,确保环境安全;面向用户、角色、工作空间的多层级访问控制,保障数据安全;用户的访问、编辑、操作等任何行为都可追溯,实现责任认定。
平台服务采用负载均衡和高可用设计;完善的容灾备份机制,提供数据的备份与恢复方案,以及针对异常情况的自动化处理。
自动部署,支持根据需求动态调整集群规模;自动化调度,支持定时或周期性的执行方式;全局监控,及时了解调度执行情况。