i18n for react project
参与开发的一个项目最近需要支持多语言, 于是研究了下国际化相关的。项目采用前后端分离开发的单页应用,前端使用react, 开发框架是dvajs 与antd,后台就是常用的spring mvc + mybatis + mysql。 菜单列表是可以在页面配置,存储于数据库,多语言支持
参与开发的一个项目最近需要支持多语言, 于是研究了下国际化相关的。项目采用前后端分离开发的单页应用,前端使用react, 开发框架是dvajs 与antd,后台就是常用的spring mvc + mybatis + mysql。 菜单列表是可以在页面配置,存储于数据库,多语言支持
最近看了openresty/lua相关的一点点知识, 然后想折腾个啥,做博客post的访问记录。 关于web框架,研究了下vanilla, 文档不够,功能也不够完善, 真正使用起来还是有一些事情要做的, 完成了这个就不想折腾它了。 页面访问逻辑当用户每打开一个page时, 产生一
早上花点时间修改 wafer-java-session, 引入了RxJava, 保存在新的分支rxjava。 新增Maven 依赖12345<dependency> <groupId>io.vertx</groupId> <a
最近在研究小程序, 对照着wafer-node-sdk用java实现一个简单的session server, 只能用来测试, 并不能实际使用。小程序客户端使用 https://github.com/tencentyun/lab-rps-client/ 使用Vert.x框架实现,
将股票数据存入HBase使用的数据文件为Setup single-node Hadoop and load stock data中从网易财经导出的csv文件,文件名为数据日期, 例如2016-08-26.csv。 创建HBase表参考The Apache HBase Shell,
下载thrift开发环境是在windows下,apache thrift 提供了windows的预编译文件,直接下载即可。使用如下命令由__*.thrift__文件生成python代码, 在子文件夹gen-py下, 在python代码中需要将该文件夹路径添加至sys.path。
参考HBase官方文档,setup一个单机环境,使用HDFS。 这里主要记录下编译运行java代码访问HBase的相关的步骤, 都是从文档里参考而来。 依赖的jar包访问HBase的代码也需要Hadoop相关的library, 所以我直接借用访问HDFS的工程,在里面添加了一个C
搭建单节点Hadoop, 加载股票数据到HDFS使用的环境为Ubuntu 16 64/位系统。 环境搭建首先参照Hadoop的官方文档搭建单节点的系统,下载压缩包之后解压, 配置JDK即可运行。这里使用在单机运行的伪集群模式,如下修改configuration文件, NameN
export message from outlook using python script, and import to MailStore
list some tools to analyse apk file