Lite XL 正在参加 2021 年度 OSC 中国开源项目评选,请投票支持!
Lite XL 在 2021 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
2021 年度 OSC 中国开源项目评选 正在火热进行中,快来投票支持你喜欢的开源项目!
2021 年度 OSC 中国开源项目评选 >>> 中场回顾
Lite XL 获得 2021 年度 OSC 中国开源项目评选「最佳人气项目」 !

软件简介

Lite XL 源自 lite。它是一个主要用 Lua 编写的轻量级文本编辑器——它旨在提供一些实用、漂亮、小巧且易于修改和扩展的东西,或者在不做任何事情的情况下使用。

与 lite 相比,Lite XL 的目标是更加用户友好、提高字体渲染质量并降低 CPU 使用率。

Lite XL 支持 Windows 和 Linux 上的高 DPI 显示,并且从 1.16.7 版本开始,它支持macOS 上的 retina displays

Lite XL 与 lite 兼容,适用于大多数插件和所有颜色主题。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
暂无内容
2016/03/23 22:25

Lite2D的HttpClient

封装了curl 由于网络是独立的一个线程 所以需要线程同步 下面是Director的同步代码 void Director::addFuncToMainThread(const std::function<void()>& func) {   _mutex_mainThread.lock();   _queue_other_thread_func.push_back(func);   _mutex_mainThread.unlock(); } void Director::processOtherThreadFunc() {   //   for (int i = 0;i<_queue_other_thread_func.size(); ++i)   //   {   //     _queue_other_th...

0
0
发表了博客
2019/09/29 16:18

NLP中的预训练语言模型(三)—— XL-Net和Transformer-XL

  本篇带来XL-Net和它的基础结构Transformer-XL。在讲解XL-Net之前需要先了解Transformer-XL,Transformer-XL不属于预训练模型范畴,而是Transformer的扩展版,旨在解决Transformer的捕获长距离依赖信息的上限问题。接下来我们详细的介绍Transformer-XL和XL-Net。 一,Transformer-XL   论文:TRANSFORMER-XL: LANGUAGE MODELING WITH LONGER-TERM DEPENDENCY   GitHub:https://github.com/kimiyoung/transformer-xl   ...

0
0
发表了博客
2019/09/02 10:31

7. Transformer-XL原理介绍

1. 语言模型 2. Attention Is All You Need(Transformer)算法原理解析 3. ELMo算法原理解析 4. OpenAI GPT算法原理解析 5. BERT算法原理解析 6. 从Encoder-Decoder(Seq2Seq)理解Attention的本质 7. Transformer-XL原理介绍 1. 前言 2017年6月,Google Brain在论文《Attention Is All You Need》中提出的Transformer架构,完全摒弃了RNN的循环机制,采用一种self-attention的方式进行全局处理。我也在博客Attention Is All Yo...

0
0
发表了博客
2019/11/16 11:07

[TF Lite] TensorFlow Lite with OpenGL ES

TensorFlow Lite 一、源码 Ref: https://github.com/tensorflow/tensorflow/tree/master/tensorflow/lite 二、性能实测 Ref: TensorFlow Lite GPU 代理,40 ms,即是22fps。 Ref: TensorFlow Lite 2019 Roadmap,OpenCL and Vulkan support on Android. 三、性能对比 Ref: https://www.tensorflow.org/lite/models/object_detection/overview Android手机 模型名称 设备 平均推理时间 Mobilenet_1.0_224(float) Pixel 2 123.3 m...

0
0
2020/06/04 11:59

超细节解读Transformer-XL与XLNet

作者 | Carlos @ 南京理工大学 转自 | AINLP 写在前面 基于transformer-XL的XLNet是目前在BERT基础上改动较大的后起之秀。在超长文本的场景下,XLNet相比其他bert系列的模型会有更好的性能(recurrent机制使其可捕获更长的上下文依赖关系)以及更快的训练与推理速度(memory单元中缓存了之前(一个或多个)段的隐状态信息,避免了重复计算),且在一般长度的文本场景中会有更完整的语义信息(PLM考虑了被mask的token间的联系)。以上分析...

0
0
发表于PostgreSQL专区
2016/01/14 21:05

CentOS下源码安装部署PostgreSQL-XL

环境 三台服务器,ip分别 10.0.1.12,10.0.1.13,10.0.1.14 hostname分别为gtm,dbnode01,dbnode02,其中gtm为master 即:物理节点,三台,分别为gtm,dbnode01,dbnode02 逻辑节点,七个,分别为gtm,coordinator01,datanode11,datanode12, coordinator02,datanode21,datanode22 下载源码 http://sourceforge.net/projects/postgres-xl/files/Releases/Version_9.2rc/postgres-xl-v9.2-src.tar.gz/download 目前的版本是基于...

0
0
发表了博客
02/05 14:33

msgpack-lite压缩字符串

https://github.com/kawanet/msgpack-lite

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
0 评论
0 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部