CIFCOM跨境电商 CIFCOM跨境电商

当前位置: 首页 » 出海百科 »

亚马逊编辑器怎么使用

号称全球5.6亿用户,做PDF软件的福昕今日上市,中科大少年班老板身家近60亿

《中国经济周刊》记者 姚坤|北京报道

从福州起步,做出了号称全球5.6亿人在用的PDF软件,福昕软件今日在科创板上市,首日收盘价309.27元/股,相比238.53元/股的发行价,上涨29.66%,公司总市值148.88亿。根据上市公告书可知,公司实控人熊雨前持有38.41%的股份。根据收盘价计算,他的身家已达到57.18亿。

据《福建日报》2024年1月报道,熊雨前毕业于中科大少年班。

福昕软件招股说明书显示,2024年度,公司收入3.69亿元人民币,净利润7531万元,PDF器与阅读器业务贡献了77.7%的收入。

在百度搜索PDF阅读器”,除去前面的几个广告链接,排在第一位的就是福昕软件,在bing国际版搜索PDF reader”(即PDF阅读器),排在第一位的是软件巨头Adobe的Arcobat Reader,第二名就是福昕软件(Foxit Software)。

福昕软件的各产品收入占比 图片来源:福昕软件招股说明书

号称全球5.6亿人都在用的PDF软件,但个人付费客户仅10万户?

福昕软件在官方网站首页的介绍文案是全球5.6亿用户都在用的PDF器及PDF阅读器”。

招股说明书显示,2024年度,福昕软件PDF器及阅读器产品的个人付费客户数是102426户,贡献收入为3703万元,仅占PDF器及阅读器销售总体收入的12.9%,剩下87.1%来自代理商客户和机构客户。

福昕软件从各类客户获得收入的比例 图片来源:福昕软件招股说明书

福昕软件副总裁李渊明在2018年4月20日接受人民网福建频道采访时透露,我们现在全球用户数量大概有12亿多。很多用户他(她)也许并不知道自己使用的是福昕的软件,因为我们有一些技术是间接的。我们的合作伙伴有微软、还有亚马逊,微软在很多地方使用了福昕的PDF技术,亚马逊的一些阅读器里也有福昕的核心技术。”

福昕软件在招股说明书中称,2011 年开始,亚马逊在 Kindle 产品中使用福昕软件开发的 PDF 显示及渲染技术,并与公司建立了长期合作关系;2014 年,谷歌与福昕软件达成合作建立开源 PDFium 项目,PDFium 项目将福昕软件的 PDF 技术应用于 Chrome 浏览器、安卓手机操作系统以及 Google Document 等 Google 知名产品。

2024年度,福昕软件从前五大客户获得销售收入6574.83万元,占到总收入的17.58%,从第一大客户戴尔获得销售收入3391.43万元,占到总收入的9.19%。

福昕软件2024年前五大客户 图片来源:福昕软件招股说明书

超90%收入来自海外,今年才成立中国区事业部

福昕软件虽然创立于福州,但据其官方网站2024年2月25日发布的新闻稿,直至今年才成立中国区事业部。

福昕软件招股说明书显示,在2017年度、2018年度、2024年度,公司海外收入占比分别为 94.78%、92.81%和91.60%,大部分收入都来自北美和欧洲,来自中国大陆的收入占比较低,但增长较快。

福昕软件的收入地域分布 图片来源:福昕软件招股说明书

为避免福昕倒闭,亚马逊曾对其投资

福昕软件于2011年12月宣布获得亚马逊投资。

根据福昕软件对上交所问询函的回复,亚马逊最初投资福昕软件,主要是由于当时公司规模较小,存在一定的持续经营风险,但公司的PDF 技术对于亚马逊的 Kindle 产品十分重要,因此亚马逊决定进行战略投资。”

即亚马逊是因为担心福昕软件倒闭,无法继续使用福昕软件的PDF技术,才对其投资入股。

图片来源:福昕软件对上交所问询函的回复报告

一直到2018年12月31日前,亚马逊都还是福昕软件的第二大股东。但到2024年12月31日,福昕软件前十名股东中已不见亚马逊的踪影。

上交所曾在审核问询函中,要求福昕软件说明亚马逊退出的原因。

福昕软件解释,如果外资占比超过10%,申请电信增值业务的程序复杂、审批难度大,因此与亚马逊沟通希望其降低持股比例。亚马逊投资是为帮助福昕软件持续经营,并非以赚取投资价差为目的。2024 年 3 月,亚马逊最终决定支持福昕软件的业务发展,退出投资。

研发费用占比低于竞争对手,研发人员薪酬低于行业平均水平?

招股说明书显示,在2024年上半年,福昕软件的营业收入为2.26亿元,同比增长46.55%,净利润6237.76万元,同比增长265.59%。

不过,身处软件行业,福昕软件从2017年到2024年,研发费用占营业收入比例逐年降低,值得关注。

图片来源:福昕软件招股说明书

福昕软件在2024年的研发费用占营业收入比例,低于竞争对手。

图片来源:福昕软件招股说明书

对此,福昕软件给出的解释是,由于公司尚未上市,融资渠道有限,整体规模相对较小,2024年度公司研发投入的比例略低于竞争对手,但整体保持较高水平。”

另外,福昕软件在2017年度、2018年度、2024年度,公司研发人员人均薪酬大都低于同行业可比公司平均水平。

图片来源:福昕软件招股说明书

福昕软件在招股书里将之归结为二线城市薪酬低,主要原因是由于公司研发人员大部分位于福州、合肥、南京等二线城市,受地域经济发展水平差异的影响,与同行业可比公司主要所处的北京、深圳等一线城市的薪酬之间存在一定差异。”

上市之后,福昕软件是否会提高研发费用占比、提升研发人员薪酬,仍有待进一步观察。

:杨百会

(版权属《中国经济周刊》杂志社所有,任何媒体、网站或个人未经授权不得转载、摘编、链接、转贴或以其他方式使用。)

亚马逊云科技:如何在3分钟内构建一个流式数据处理管道

关键字: [亚马逊云科技中国峰会2024, Redshift, 构建流式数据管道, 亚马逊云科技解决方案, 实时消息队列Kafka, 分布式数据仓库Redshift, 零Etl数据摄入]

本文字数: 1300, 阅读完需: 6 分钟

导读

在这个演讲中,演讲者介绍了如何在3分钟内构建一个流式数据处理管道。他解释了如何使用Amazon Redshift分布式数据仓库和Amazon MSK (托管的Kafka服务)来实现实时数据摄入。具体来说,他展示了如何通过几条SQL语句创建Schema、映射Kafka集群、从Kafka主题读取数据并创建物化视图,从而直接将Kafka数据流式摄入Redshift。此外,他还介绍了如何利用Redshift的调度功能自动执行这些SQL语句,实现每分钟级别的Kafka数据消费。最后,演讲者提到除了Kafka,亚马逊云科技的其他数据源如MySQL、DynamoDB等也可以通过类似的零ETL方式直接实时摄入Redshift,为数据分析师提供实时数据支持。

演讲精华

以下是小编为您整理的本次演讲的精华,共1000字,阅读时间大约是5分钟。

在一个经济寒冷的时期,一位名叫张盼富的亚马逊云科技解决方案架构师准备在中国峰会上进行一场闪电演讲。他的演讲主题是在3分钟内构建一个流式数据处理管道。张盼富首先询问在座的与会者,有多少人从事过数据分析工作或对数据分析有所了解。看到不少人举手,他感到很高兴。

接下来,张盼富设想了一个场景:假设一位老板参加了亚马逊的中国峰会,回到公司后找到公司的数据分析师小张,抱怨说公司的报表只能查看前一天的数据,反应太慢了。研发人员小王已经把数据导入到Kafka消息队列中,但老板不解为什么报表还需要第二天才能出来。

小张解释说,作为一名数据分析师,他只会写SQL,不会从Kafka读取数据,也不会编写Spark或Flink程序。老板却说,在中国峰会上,亚马逊的老师说只需3分钟就能构建数据管道。小张内心万分吐槽,但鉴于是老板,只好说会去学习一下。

小张之前使用过亚马逊的Redshift分布式数据仓库服务,它对于习惯使用SQL Server或Oracle的数据分析师来说非常友好,能够帮助他们平滑过渡到大数据时代。Redshift有一个外号叫”一级秒开”,意思是对于10亿条数据、多张表的联合查询和聚合,它只需1秒或更短的时间就能返回结果,查询速度达到亚秒级。

小张回忆起,要将Kafka中的数据导入Redshift,一种方式是启动亚马逊的EMR服务,使用Spark或Flink进行数据处理和写入。但他并不熟悉这些技术,告诉老板说需要三五个月的时间才能勉强学会。继续查阅文档,小张发现另一种方式是使用Firehose ETL工具,将Kafka的数据消费到S3,再从S3将数据导入Redshift。但老板要求3分钟就能完成,这种方式似乎也不够快。

终于,小张找到了一个叫做”流式摄入”的功能,它能够直接将Kafka中的数据写入Redshift,中间不需要Spark、Flink等中间件,避免了额外的开销。不过小张还是有些疑虑,这种高大上的功能会不会很复杂?但为了满足老板的要求,他决定试一试。

很快,小张在官网上找到了一些SQL示例。第一条SQL创建了一个Schema,并将其映射到Kafka集群,对应的是一长串红色数字ID。第二条SQL在该Schema下创建了一个名为mytopic的视图,从Kafka的topic中读取数据,kafka_value就是Kafka消息体,通过解析可以获得id和name字段。值得注意的是,这里使用了”物化视图”的概念,不同于普通视图只是SQL定义,物化视图是带有本地缓存的,可以实时读取Kafka数据。

有了物化视图后,我们就可以实时读取Kafka数据了,但通常还需要将数据写入数据表中进行物理存储,以便后续消费和分析。小张发现果然非常简单,只需3条SQL就能搞定。接下来的问题是,如何自动执行这些SQL?没问题,Redshift本身就提供了调度功能。在网页器中编写SQL,点击”Schedule”按钮,就可以配置每分钟运行一次,并指定运行的日期范围。你还可以实时查看调度和执行记录。就这样,小张实现了每分钟消费Kafka数据的数据管道。

小张的思路还在发散,他想到公司还有一些数据存储在MySQL等数据库中,是否也能像Kafka一样直接、实时地导入Redshift?答案是肯定的,不仅Kafka,MySQL、亚马逊云科技自研的数据库、托管数据库,以及Amazon Glue、DynamoDB等,都可以通过零ETL的方式,直接实时导入Redshift,无需中间环节,真正拥抱零ETL。之后就是数据分析师的工作了,在Redshift中对数据进行分析和处理。

总之,通过Redshift的流式摄入功能,我们可以在3分钟内构建一个流式数据处理管道,将Kafka、MySQL等数据源的实时数据直接导入Redshift,实现零ETL,为数据分析工作提供了极大的便利。

在这场精彩的闪电演讲中,张盼富生动地描绘了一个真实的场景,并一步步展示了如何使用Redshift的流式摄入功能快速构建数据管道的过程。他的演讲不仅内容丰富,而且语言幽默风趣,让在座的与会者获益匪浅。通过这个案例,我们可以清晰地看到亚马逊云科技在大数据和数据分析领域的强大实力,以及它为客户提供的优质服务和解决方案。相信在张盼富和其他亚马逊云科技专家的共同努力下,越来越多的企业和组织将能够高效利用数据资源,推动业务发展和创新。

下面是一些演讲现场的精彩瞬间:

亚马逊云科技中国峰会2024的主题演讲者提出了在3分钟内构建一个流式数据的pipeline的挑战。

亚马逊云科技的Redshift分布式数据仓库能够在亚秒级返回10亿条数据的查询结果,为数据分析师提供了高效的大数据处理能力。

在亚马逊云科技中国峰会2024上,演讲者生动形象地解释了如何利用亚马逊云科技服务直接从Kafka将数据写入Redshift,省去了中间环节,实现了高效的数据摄入。

亚马逊云科技中国峰会2024上,演讲者生动解释了如何使用SQL从Kafka主题中读取实时数据流,并创建带缓存的物化视图。

亚马逊云科技中国峰会2024上,演讲者展示了如何使用Amazon Redshift网页器编写SQL,并通过调度功能实现每分钟自动执行,实现了分钟级消费卡夫卡数据的Pipeline。

张先生提出了利用Amazon Web Services Zero ETL技术将MySQL、DynamoDB等数据源直接实时传输到Redshift进行数据分析,消除了传统ETL过程的中间环节。

总结

亚马逊云科技解决方案架构师张盼富在本次演讲中分享了如何在3分钟内构建一个流式数据处理管道。他以一个生动的场景开场,描述了一位数据分析师小张面临的挑战:公司要求实时查看数据报表,但小张只会编写SQL,无法从Kafka消息队列中读取数据。

张盼富首先介绍了亚马逊的分布式数据仓库Redshift,它能够秒级处理大规模数据。接着,他展示了如何通过三条简单的SQL语句,直接从Kafka读取数据流并将其存储到Redshift中,无需编写复杂的Spark或Flink代码。这种”流式摄入”功能大大降低了数据处理的门槛。最后,他强调Redshift不仅支持Kafka,还可以通过零ETL直接从MySQL、Amazon Glue、DynamoDB等多种数据源实时摄入数据,为数据分析师提供了强大的工具。

张盼富的演讲清晰地阐释了亚马逊云科技在流式数据处理领域的创新能力,为客户提供了高效、简单的解决方案,助力企业实现数据驱动的业务决策。他的分享不仅启发了在场听众,更号召开发者和数据从业者拥抱云原生时代,共同推进数字化转型。

2024年5月29日,亚马逊云科技中国峰会在上海召开。峰会期间,亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松全面阐述了亚马逊云科技如何利用在算力、模型、以及应用层面丰富的产品和服务,成为企业构建和应用生成式 AI 的首选。此外,活动还详细介绍了亚马逊云科技秉承客户至尚的原则,通过与本地合作伙伴一起支持行业客户数字化转型和创新,提供安全、稳定、可信赖的服务,以及持续深耕本地、链接全球,助力客户在中国和全球化发展的道路上取得成功。

亚马逊云科技:如何在3分钟内构建一个流式数据处理管道

关键字: [亚马逊云科技中国峰会2024, Redshift, 构建流式数据管道, 亚马逊云科技解决方案, 实时消息队列Kafka, 分布式数据仓库Redshift, 零Etl数据摄入]

本文字数: 1300, 阅读完需: 6 分钟

导读

在这个演讲中,演讲者介绍了如何在3分钟内构建一个流式数据处理管道。他解释了如何使用Amazon Redshift分布式数据仓库和Amazon MSK (托管的Kafka服务)来实现实时数据摄入。具体来说,他展示了如何通过几条SQL语句创建Schema、映射Kafka集群、从Kafka主题读取数据并创建物化视图,从而直接将Kafka数据流式摄入Redshift。此外,他还介绍了如何利用Redshift的调度功能自动执行这些SQL语句,实现每分钟级别的Kafka数据消费。最后,演讲者提到除了Kafka,亚马逊云科技的其他数据源如MySQL、DynamoDB等也可以通过类似的零ETL方式直接实时摄入Redshift,为数据分析师提供实时数据支持。

演讲精华

以下是小编为您整理的本次演讲的精华,共1000字,阅读时间大约是5分钟。

在一个经济寒冷的时期,一位名叫张盼富的亚马逊云科技解决方案架构师准备在中国峰会上进行一场闪电演讲。他的演讲主题是在3分钟内构建一个流式数据处理管道。张盼富首先询问在座的与会者,有多少人从事过数据分析工作或对数据分析有所了解。看到不少人举手,他感到很高兴。

接下来,张盼富设想了一个场景:假设一位老板参加了亚马逊的中国峰会,回到公司后找到公司的数据分析师小张,抱怨说公司的报表只能查看前一天的数据,反应太慢了。研发人员小王已经把数据导入到Kafka消息队列中,但老板不解为什么报表还需要第二天才能出来。

小张解释说,作为一名数据分析师,他只会写SQL,不会从Kafka读取数据,也不会编写Spark或Flink程序。老板却说,在中国峰会上,亚马逊的老师说只需3分钟就能构建数据管道。小张内心万分吐槽,但鉴于是老板,只好说会去学习一下。

小张之前使用过亚马逊的Redshift分布式数据仓库服务,它对于习惯使用SQL Server或Oracle的数据分析师来说非常友好,能够帮助他们平滑过渡到大数据时代。Redshift有一个外号叫”一级秒开”,意思是对于10亿条数据、多张表的联合查询和聚合,它只需1秒或更短的时间就能返回结果,查询速度达到亚秒级。

小张回忆起,要将Kafka中的数据导入Redshift,一种方式是启动亚马逊的EMR服务,使用Spark或Flink进行数据处理和写入。但他并不熟悉这些技术,告诉老板说需要三五个月的时间才能勉强学会。继续查阅文档,小张发现另一种方式是使用Firehose ETL工具,将Kafka的数据消费到S3,再从S3将数据导入Redshift。但老板要求3分钟就能完成,这种方式似乎也不够快。

终于,小张找到了一个叫做”流式摄入”的功能,它能够直接将Kafka中的数据写入Redshift,中间不需要Spark、Flink等中间件,避免了额外的开销。不过小张还是有些疑虑,这种高大上的功能会不会很复杂?但为了满足老板的要求,他决定试一试。

很快,小张在官网上找到了一些SQL示例。第一条SQL创建了一个Schema,并将其映射到Kafka集群,对应的是一长串红色数字ID。第二条SQL在该Schema下创建了一个名为mytopic的视图,从Kafka的topic中读取数据,kafka_value就是Kafka消息体,通过解析可以获得id和name字段。值得注意的是,这里使用了”物化视图”的概念,不同于普通视图只是SQL定义,物化视图是带有本地缓存的,可以实时读取Kafka数据。

有了物化视图后,我们就可以实时读取Kafka数据了,但通常还需要将数据写入数据表中进行物理存储,以便后续消费和分析。小张发现果然非常简单,只需3条SQL就能搞定。接下来的问题是,如何自动执行这些SQL?没问题,Redshift本身就提供了调度功能。在网页器中编写SQL,点击”Schedule”按钮,就可以配置每分钟运行一次,并指定运行的日期范围。你还可以实时查看调度和执行记录。就这样,小张实现了每分钟消费Kafka数据的数据管道。

小张的思路还在发散,他想到公司还有一些数据存储在MySQL等数据库中,是否也能像Kafka一样直接、实时地导入Redshift?答案是肯定的,不仅Kafka,MySQL、亚马逊云科技自研的数据库、托管数据库,以及Amazon Glue、DynamoDB等,都可以通过零ETL的方式,直接实时导入Redshift,无需中间环节,真正拥抱零ETL。之后就是数据分析师的工作了,在Redshift中对数据进行分析和处理。

总之,通过Redshift的流式摄入功能,我们可以在3分钟内构建一个流式数据处理管道,将Kafka、MySQL等数据源的实时数据直接导入Redshift,实现零ETL,为数据分析工作提供了极大的便利。

在这场精彩的闪电演讲中,张盼富生动地描绘了一个真实的场景,并一步步展示了如何使用Redshift的流式摄入功能快速构建数据管道的过程。他的演讲不仅内容丰富,而且语言幽默风趣,让在座的与会者获益匪浅。通过这个案例,我们可以清晰地看到亚马逊云科技在大数据和数据分析领域的强大实力,以及它为客户提供的优质服务和解决方案。相信在张盼富和其他亚马逊云科技专家的共同努力下,越来越多的企业和组织将能够高效利用数据资源,推动业务发展和创新。

下面是一些演讲现场的精彩瞬间:

亚马逊云科技中国峰会2024的主题演讲者提出了在3分钟内构建一个流式数据的pipeline的挑战。

亚马逊云科技的Redshift分布式数据仓库能够在亚秒级返回10亿条数据的查询结果,为数据分析师提供了高效的大数据处理能力。

在亚马逊云科技中国峰会2024上,演讲者生动形象地解释了如何利用亚马逊云科技服务直接从Kafka将数据写入Redshift,省去了中间环节,实现了高效的数据摄入。

亚马逊云科技中国峰会2024上,演讲者生动解释了如何使用SQL从Kafka主题中读取实时数据流,并创建带缓存的物化视图。

亚马逊云科技中国峰会2024上,演讲者展示了如何使用Amazon Redshift网页器编写SQL,并通过调度功能实现每分钟自动执行,实现了分钟级消费卡夫卡数据的Pipeline。

张先生提出了利用Amazon Web Services Zero ETL技术将MySQL、DynamoDB等数据源直接实时传输到Redshift进行数据分析,消除了传统ETL过程的中间环节。

总结

亚马逊云科技解决方案架构师张盼富在本次演讲中分享了如何在3分钟内构建一个流式数据处理管道。他以一个生动的场景开场,描述了一位数据分析师小张面临的挑战:公司要求实时查看数据报表,但小张只会编写SQL,无法从Kafka消息队列中读取数据。

张盼富首先介绍了亚马逊的分布式数据仓库Redshift,它能够秒级处理大规模数据。接着,他展示了如何通过三条简单的SQL语句,直接从Kafka读取数据流并将其存储到Redshift中,无需编写复杂的Spark或Flink代码。这种”流式摄入”功能大大降低了数据处理的门槛。最后,他强调Redshift不仅支持Kafka,还可以通过零ETL直接从MySQL、Amazon Glue、DynamoDB等多种数据源实时摄入数据,为数据分析师提供了强大的工具。

张盼富的演讲清晰地阐释了亚马逊云科技在流式数据处理领域的创新能力,为客户提供了高效、简单的解决方案,助力企业实现数据驱动的业务决策。他的分享不仅启发了在场听众,更号召开发者和数据从业者拥抱云原生时代,共同推进数字化转型。

2024年5月29日,亚马逊云科技中国峰会在上海召开。峰会期间,亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松全面阐述了亚马逊云科技如何利用在算力、模型、以及应用层面丰富的产品和服务,成为企业构建和应用生成式 AI 的首选。此外,活动还详细介绍了亚马逊云科技秉承客户至尚的原则,通过与本地合作伙伴一起支持行业客户数字化转型和创新,提供安全、稳定、可信赖的服务,以及持续深耕本地、链接全球,助力客户在中国和全球化发展的道路上取得成功。

未经允许不得转载: CIFCOM跨境电商 » 亚马逊编辑器怎么使用

相关文章

themebetter

contact