晨鹤小站(。・∀・)ノ゙

  • 首页

  • 分类

  • 归档

  • 标签

  • 关于我

  • 友情链接

  • 腕间图库 - 最棒的手表图库

  • 搜索

Navicat 连接阿里云RDS

发表于 2018-09-29 | 分类于 写代码的日子 | 评论数:

背景

Navicat 是一个非常优秀与易用的数据库可视化管理软件,相信很多人都用过。这次服务器升级,数据库用了阿里云的RDS,阿里云自带的数据库管理面板功能有限,用不习惯。所以还是想着用 Navicat 来管理。

为了安全 RDS 默认是不能用外网访问的,我们也不应该随便开启这个功能。这里可以使用 Navicat 的 SSH 功能。先通过 SSH 连接到 ECS,然后再连接数据库,相当于用服务器做跳板。

连接

新建一个连接,首先切换到 SSH 选项卡,填写连接 ECS 的相关属性。可以选择是密码还是密钥验证。

PS:新版 Navicat 在新建连接的时候可以选择 阿里云 > 阿里云云数据库 虽然功能上没发现有什么区别但是图标会变成阿里云的,更加清晰。防止删库的时候删错哈哈哈

然后切换回常规选项卡,填写数据库的相关属性。主机直接填写 RDS 的内网地址即可。配置好之后点击测试连接,成功就可以啦。

江苏电信开通 VoLTE 9.21 可用

发表于 2018-09-21 | 分类于 有趣的技巧 | 评论数:

搬运,原帖:http://bbs.8080.net/thread-881807-1-1.html

主要原理是利用 js 修改电信官网开通按钮的行为。

推荐使用 chrome 浏览器。首先打开 VoLTE 的开通页面,会提示登录,选择手机,通过密码或短信验证码登录。此时如果直接点击开通会看到下面提示:

阅读全文 »

Git 忽略已经提交的文件

发表于 2018-09-15 | 分类于 写代码的日子 | 评论数:

有时候因为疏忽大意,没添加 .gitignore 就提交了,甚至推送到远程了,那么再想忽略提交怎么办呢?

常规方案

下面是网上流行的解决方案:

  1. 首先修改 .gitignore 文件,添加要忽略的
  2. 然后执行 git rm --cached <file> 删除跟踪记录
  3. 然后 git add <ignore> 暂存忽略文件的修改。
  4. 最后 git commit -m ""就好啦。

其中第二步也可替换为

1
2
git rm -r --cached . # 取消所有文件的跟踪
git add . # 重新跟踪所有文件

理论上这样是没问题的。但是实际上就不同了。

GUI 的坑

如果上边的某些步骤,例如第四步,你让 GUI 客户端代劳了,那么就很容易发生诡异的事情。在 commit 之后,如果再次修改被忽略的文件,会发现这东西居然又被重新跟踪了,简直阴魂不散。

解决方案也很简单,一定要用 git bash 命令行操作,不要偷懒用 GUI。

Android 建立 git 并上传到远程仓库

发表于 2018-08-04 | 分类于 写代码的日子 | 评论数:

前言

关于 Android Studio 与 Git 就不多说了。一般情况下我们都是 clone 一个已有的 git 仓库到本地继续开发。那么如果是一个全新的项目,标准的建立并传到远程仓库的流程是怎么样呢?一番摸索后记录一下。

Git 安装

首先要确保计算机已经安装了 Git,之后 Android Studio 应该可以自动识别到 git 的位置。如果不放心可以打开设置搜索 git 可以手动配置位置并进行测试。

注意区分 git 与 github 哦~

建立本地仓库

通过 Android Studio 菜单栏的 VCS - Import into Version Control - Create Git Repository... 即可初始化本地仓库。在选择目录的时候记得选择项目的根目录。

你也可以直接在 Android Studio 下方的 Terminal 界面直接运行下面命令行来建立一个仓库。这里终端的默认位置就是项目根目录。

1
2
# 初始化一个仓库
git init
阅读全文 »

Wear OS ADB 应用安装指南

发表于 2018-06-15 | 分类于 智能硬件圈 | 评论数:

Wear OS 的坑

早在 Android Wear 1.x 时代,智能手表的应用都是先安装在手机上,然后蓝牙连接手表后会同步过去。但在自从升级到 AW2.0 (现改名为 Wear OS)后,这一做法被废弃,改为手表独立安装应用。不过在 Google 的开发者文档中却说依然支持蓝牙同步,着实坑了开发者一把。

与此同时,按照 Google 的说法,若用户安装的手机应用支持手表,那么他会在手表上收到通知。但是没有说清楚的是,这一功能仅支持 Google play. 在中国,作为 Wear OS 的官方合作伙伴,问问应用市场与华为应用市场却把这些功能弄得一团糟。

各种小坑最终整合成了一个大坑,用户想在手表安装个应用都成了件麻烦事。这篇教程就教各位如何使用 adb 手动安装应用。

软硬件准备

  • 搭载 Wear OS 或 Ticwear 系统的设备一部。废话(=、=)
  • Windows 电脑一部。MAC也行吧,请自行摸索。博主苹果黑,请不要问我关于苹果的东西。
  • 本教程的所有操作均需要 adb工具。链接:http://pan.baidu.com/s/1sljpQQ5 密码:cznr. 或者去谷歌中国官方 OR 谷歌国际官方下载。

adb简介:adb全称Android Debug Bridge,中文直译安卓调试桥,是一个谷歌官方发布的用于调试的程序,通过它可以对Android设备进行各种操作。

提取安装包

阅读全文 »

出门问问18发布会 - 高通加持的续航怪兽了解下

发表于 2018-05-27 | 分类于 智能硬件圈 | 评论数:

从京东抢购的 ticwatch 一代,到现在已经有数个年头了。这期间出门问问陆续发布了 ticwatch2 ,ticwatch S/E,tichome,ticpods free,tichome mini 等等产品。

2018年5月,出门问问发布会如期举行,我也很荣幸能够到现场参加。这一次问问一口气带来了 TicWatch Pro、TicKasa、TicPod Solo、问芯 四款产品。因为我本人比较偏向于关注智能手表,所以也就着重说说这块。

TicWatch PRO

出乎意料,问问开了一个新的 PRO 系列,而不是猜测中的 TicWatch3。据说 TicWatch3 吧主已哭晕。 PRO 拥有众多革命性的变化,虽然这些技术先前或许已被其他厂商使用,但问问是第一个集合起来的。

双屏幕

说到双屏幕手表,不得不提果壳二代。我也曾经是果壳表的用户,对这个骗子公司深恶痛绝,在濒临倒闭之时竟然还把3年前的产品拿到京东众筹清库存。(咳咳,好像跑题惹)

屏幕一直以来都是耗电的大头,所以很多轻智能手表或手环均选择了类似墨水屏的方案来最大化续航。显然这种方案不适用于 TicWatch 这种全智能设备。自然而然地,两个屏幕的想法就这么诞生了。

阅读全文 »

博弈论(一)

发表于 2018-05-19 | 分类于 机器学习笔记 , 强化学习 | 评论数:

在之前的讨论中,一场游戏只有一个智能体。而在博弈论中,智能体评估它们的决策如何与其他人的决策相互作用以产生不同的结果。

简单博弈

看一个具体的博弈游戏:


圆圈中的数字代表一个状态。L/R/M 代表智能体可采取的动作。叶子节点的数字代表智能体 A 的得分(B的得分是相反数)

首先 A 做出一个选择(动作),随后 B 做出一个动作,然后 A 可视情况再次做出一个动作。

博弈论一个基本前提是:假设所有玩家都想最大化自己的得分,并都可以正确做出最佳动作,并都相信其他玩家也会这样做。

这是博弈问题最简单的一种:两个玩家的零和有限确定性完美信息博弈。

  • 两个玩家:顾名思义,就是在这个博弈游戏中只有2个玩家(智能体)。
  • 零和:两个玩家获得的奖励(得分)之和是一个常量。(不一定为0)
  • 有限性:显然,这场博弈的一切元素例如:状态、动作等都是有限的。
  • 确定性:从 MDP 角度理解,即博弈中没有随机转换。从某一状态采取某一动作得到的结果是确定的。
  • 完美信息:我们能够确定当前智能体所处的状态。
    阅读全文 »

Q-learning 算法

发表于 2018-05-18 | 分类于 机器学习笔记 , 强化学习 | 评论数:

Q-learning 是一个经典的强化学习算法。

为了便于描述,这里依然定义一个“世界”:

令空白格子的奖励为1.

Q-Table

Q-table 是 Q-learning 的核心。它是一个表格,记录了每个状态下采取不同动作,所获取的最大长期奖励期望。通过此,就可以知道每一步的最佳动作是什么。

Q-table 的每一列代表一个动作,每一行表示一个状态。则每个格子的值就是此状态下采取此动作获得的最大长期奖励期望。例如:

U↑ D↓ L← R→
START ? 0 0 ?
(2,1) 0 0 ? ?
(1,2) ? ? 0 0
… … … … …

上表表示,对于状态 STRAT 向下或左的奖励期望是0(因为无法移动),其余两个方向由于未探索,所以奖励未知。状态(2,1)和状态(1,2)同理。

如果能求出整个表的所有值,那么这个问题就解决了。为了做到这一点,需要使用 Q-learning 算法。

阅读全文 »

Markov 决策过程

发表于 2018-05-09 | 分类于 机器学习笔记 , 强化学习 | 评论数:

Markov 决策过程中文译为马尔可夫决策过程。英文全称为 Markov Decison Processes,简称 MDP.

为了便于描述,首先定义一个“世界”,如下:

"世界"
从起点开始,每次选择往四个方向走一格子。目标是到达绿色格子,游戏结束,碰到红色则失败,游戏结束。
黑色格子为障碍物,碰到障碍物或撞到墙壁则原地不动。
但是每次移动准确率只有80%,另外有20%的概率向与目标方向垂直的方向移动,这两个垂直的方向概率各是10%.

名词定义

  • STATES(状态):顾名思义,就是智能体当前的状态。在这个世界中,表现为「坐标」。则开始状态就是(1,1),目标状态是(4,3).
  • ACTIONS(动作):即在一个特定的STATE中所做的事。在这个世界中表现为四向移动。
  • MODEL(转换模型):模型描述了整个游戏规则。可以抽象为有三个参数的函数:T(s,a,s'),他生成的其实是一个概率:P(s'|s,a),即:从状态s,采取动作a,转换到状态s’的概率。
  • REWARD(奖励):即到达一个状态得到的反馈。例如到达绿色格子可以获得正数奖励。所以可以表述为与状态有关的函数:R(s),也可以变形为 R(s,a) 或 R(s,a,s').
  • POLICY(策略):上面三个定义组成了一个「问题」,则策略就是一个解决方案。它根据所处的状态,返回一个动作。可以表述为函数:π(s) → a. 而 $ \pi^* $ 则表示最优策略,它最大化长期期望奖励。

从MODEL定义,可以得出 Markov 特性,即:下一个状态的产生只和当前状态有关。

阅读全文 »

自然素材—梅心棒棒糖评测

发表于 2018-04-22 | 分类于 随便写点 , 各种评测 | 评论数:

一、过往

梅心棒棒糖,顾名思义,就是中间有个话梅的棒棒糖。相信这个可爱的小物种给许多人留下甜蜜、深刻的回忆。我也不例外,第一次吃应该是在初中,偶然的一次机会在学校对面的小卖部品尝到了这一零食极品,从此一发不可收拾。也不知道过了多长时间,也许是厌倦了,也许是毕业了,它在记忆中戛然而止。就像恐龙从地球消失一样,没有任何征兆,没有任何迹象。

直到上星期,和朋友的聊天中提到了这个。尘封已久的记忆苏醒,它立刻变得活跃,促使我当即就打开了京东再一次召唤这一失散多年的老友。我感到惭愧,因为我已经不再清楚它当初的模样,只依稀记得是拿塑料纸包起来,除此再无其他。

阅读全文 »

123…6
晨鹤

晨鹤

52 日志
10 分类
32 标签
GitHub 微博
Friends
  • Lance.Moe
  • 赵 - 初心
  • 名字有空格
  • 计算姬
  • marsCatXdu的窝
  • 求友链 me@chenhe.cc
0%
© 2018 晨鹤 版权所有 · 使用请注明来源
Powered by Hexo

苏ICP备13009212号-4   苏公安网 备32030302000361号