这是一个创建于 2559 天前的主题,其中的信息可能已经有所发展或是发生改变。
开始之前:今天无意中听到一首歌《小强盗》,曲风清幽俏皮,听完立刻神清气爽,不信你也试试,如果好评请留言!
关于慧安金科(AHI Fintech):
招聘愿景:国内一流人工智能和安全创业公司,诚邀世界级的大数据,人工智能和数据安全方面的专家以及业务精英加盟。
创始团队
- 黄先生,清华兼职教授,AHI Fintech 创始人、CEO,加州大学伯克利分校计算机博士。曾在美国英特尔研究院任资深科学家七年,在人工智能,大数据分析和金融科技相关领域有近十五年的研究和开发背景,在世界顶尖会议上发表近 50 篇论文,总引用超 5000 次。研究方向:自然语言金融投研,大规模用户画像,风险评估和欺诈检测,基于深度学习的图像分类,目标检测和内容的理解。
公司概况
- 产品:公司依托创始人在美国多年的研究成果和商业经验以及清华大学金融研究院的实力,目前的产品已经被多家金融机构做过技术评测,各项指数的精准度明年优于目前的大数据风控产品,目前的产品在国内没有竞品公司,很多客户已经确立了采购意向。公司下阶段要全面启动产品的“ go to market ”战略,期待更多的技术、销售、市场、商务方面的精英加入。
- 投资:Pre-A 阶段,已拿到国内顶级 VC 数千万天使投资,A 轮也已经开始排队。
- 业务:使用全球最先进的大数据系统,人工智能方法和数据安全技术来开发智能风控引擎,为中国广大金融机构的产品护驾保航。探索技术的前沿,开发下一代大数据和人工智能解决方案。
- 待遇:行业领先的薪水和期权,齐全的五险一金,供应免费午餐,提供饮料和小吃,带薪休假等等福利。
诚聘英才
全栈工程师
工作职责:
- 为整体团队提供服务开发及工具开发,推动内部团队协作效能;
- 开发、定制、调试和优化平台架构,分析平台架构瓶颈,对平台架构的高性能、高可用负责。
职位要求
- 4 年以上工作经验,具备大型项目重构经验,有大数据/高可用项目经验;
- 4 年以上 Java 或 C/C++ 、Python 开发经验;
- 3 年以上的 Web 后端和 Hadoop / MapReduce / Spark 的经验;
- 对数据统计/分析/挖掘有实际项目经验,并对数据结构理解透彻,对算法掌握熟练;
- 利用适当资源构建技术平台部门基础服务体系(如:Graylog、Prometheus + Grafana、Jenkins + Puppet );
- 计算机或相关(电子工程,自动化,数学,物理等)专业,要求至少本科毕业,硕士或博士优先。
算法工程师
工作职责
- 算法工程师的核心任务是使用各种无监督和有监督的机器学习方法来建模用户的行为。他 /她经常要使用各种高效的算法来处理数百亿用户行为事件,根据用户的行为对用户进行分类,高纬度精准画像和信用评分。
- 需要开发机器学习算法原型系统,开展线上算法实验;对实验数据进行处理和分析,发现现有系统和算法的不足,提出改进并推动实现;追踪算法前沿技术,探索将新技术应用于实际业务。
职位要求
- 4 年以上工业界工作经验;
- 4 年以上 Java 或 C / C ++ / Python 开发经验;
- 3 年以上机器学习使用经验;
- 2 年以上 Hadoop / MapReduce / Spark 的开发经验;
- 计算机或相关(电子工程,自动化,数学,物理等)专业硕士学位,博士优先。
高级工程师( Web 后端)
职位描述:
- 负责开发、维护基础业务平台,功能模块开发,常用工具包开发;
- 针对业务需求,开发完善基础业务平台,为所有业务提供更好的底层平台支持;
- 跟踪、分析平台级技术的最新发展,并将成熟的技术 /方案引入产品设计;
职位要求:
- 熟悉 PHP、Python 开发,3 年以上 Web 开发经验,熟练掌握面向对象编程;
- 熟悉 MySQL 数据库开发,熟悉 SQL 索引调优;
- 熟悉 Redis / MongoDB 等 NoSQL 技术;
- 基础扎实,熟悉常用数据结构与算法;
- 有 BI、Passport、CRM 等企业级 SaaS 开发经验者优先;
- 希望在创业公司有一番作为,有远大理想和清晰职业规划者优先;
- 有较好的沟通技巧及团队合作精神、服务意识,能够快速融入团队。
BI 工程师
职位描述:
- 负责与数据团队需求沟通与确认,进行系统分析和报表数据设计,制作并完善系统相关分析数据、图表等;
- 负责 BI 可视化报表设计及开发,报表展示工具的研究和实现;
- 负责数据分析、需求实现,支持数据建模和分析、数据挖掘来发现趋势和问题;
职位要求:
- 参与过大型数据仓库 ETL、BI 项目的设计与开发,对于元数据管理和数据清洗有一定的见解;
- 熟悉 ETL 产品和 BI 工具,能够熟练进行 BI 项目的分析设计和开发工作(包括 ETL 抽取和前端多维展现);
- 精通 SQL 编程,至少 2 年以上数据开发经验;
- 对 Hadoop/Spark 有所了解和研究;
- 有强烈的责任心和主动工作的积极态度,乐于沟通,具有协作精神;
- 工作认真、负责、仔细,有良好的团队合作精神,良好的分析能力、沟通技巧。
DevOps 工程师
工作职责
- 负责内部及外部自动化部署工作,日常项目的开发、部署、测试、上线,等 CI / CD Pipeline 工作;
- 在网络、安全、账户、权限等日常事务方面做到工具化、自动化;
- 对交付给客户的环境、系统、服务、软件、工具等做到脚本化、工具化、自动化,对内部系统、云端系统、客户私有云部署环境等服务状态、系统资源、日志数据做到页面可视化的监控、报警;
职位要求
- 3 年以上工作经验,具备分布式系统自动化交付,有内部项目、自动化脚本及工具开发的经验;
- 3 年以上 Java 或 Python 开发经验;
- 3 年以上的系统运维和 Hadoop / MapReduce / Spark 的经验;
- 对日志数据处理、大规模数据分析、实时系统监控及报警系统有实际项目经验;
- 利用适当资源构建技术平台部门基础服务体系(如:Graylog、Prometheus + Grafana、Jenkins + Puppet );
- 计算机或相关(电子工程,自动化,数学,物理等)专业, 要求至少本科毕业,硕士或博士优先;