JiaHe

相遇即是缘

  • default_storage_engine:设置默认使用的存储引擎

    • 默认值为 INNODB
  • max_allowed_packet:客户端和服务器之间发送的数据包的最大大小限制

    • 默认值为 4M
    • 推荐值为 64M - 1G,具体取决于服务器的可用内存和需要处理的数据大小。
  • join_buffer_size:连接操作缓存大小

    • 默认值为 262144(即 256K)
    • 推荐值为 128M - 512M,具体取决于系统的总内存量和查询表的大小。
  • tmp_table_size:临时表大小

    • 默认值为 16777216(即 16M)
    • 推荐值为 1G 或大于最大单个表所需的空间。
  • interactive_timeout:交互式会话超时时间,单位为秒

    • 默认值为 28800(秒),推荐值根据应用程序的需求而定。
  • wait_timeout:非交互式会话超时时间,单位为秒

    • 默认值为 28800(秒),推荐值根据应用程序的需求而定。
  • read_buffer_size:读取数据时缓存的大小

    • 默认值为 131072(即 128K)
    • 推荐值为 128K - 2M,具体取决于系统内存大小和 I/O 负载。
  • read_rnd_buffer_size:随机读取数据时缓存的大小

    • 默认值为 262144(即 256K)
    • 推荐值为 256K - 2M,具体取决于系统内存大小和 I/O 负载。
  • sort_buffer_size:排序操作缓存大小

    • 默认值为 262144(即 256K)
    • 推荐值为 1M - 256M,具体取决于系统内存大小和排序操作的复杂程度。
  • key_buffer_size:索引缓存大小

    • 默认值为 8388608(即 8M)
    • 推荐值为 64M - 1G,具体取决于系统内存和索引大小。
  • back_log:等待处理连接请求的队列大小

    • 默认值为 -1(表示自动调整大小)
    • 推荐值为 100 - 1000,具体取决于并发连接数和所需的响应时间。
  • flush_time:将更新写入磁盘的间隔时间,单位为秒

    • 默认值为 0,推荐值根据应用程序的需求而定。
  • open_files_limit:同时打开的文件描述符数量

    • 默认值为 5000,建议将其设置为操作系统允许的最大值。
  • table_definition_cache:表定义缓存大小

    • 默认值为 -1(表示自动调整大小)
    • 推荐值为 2000 - 4000,具体取决于表的数量和大小。
  • max_connections:最大连接数

    • 默认值为 151
    • 推荐值为 500 - 5000,具体取决于系统硬件和应用程序的分布式程度。
  • max_connect_errors:客户端连续错误次数达到此值后,会被禁止进一步连接

    • 默认值为 100,更具安全要求设置次数。
  • thread_cache_size:线程缓存大小

    • 默认值为 -1(表示自动调整大小)
    • 推荐值为 100 - 1000,具体取决于系统中的并发连接数。
  • innodb_flush_log_at_trx_commit:InnoDB存储引擎日志写入磁盘的时机

    • 默认值为 1
    • 推荐值为 2 或 0,如果需要更好的性能,则可以将其设置为 2,而不是 1。
  • innodb_buffer_pool_size:InnoDB存储引擎缓冲池大小

    • 默认值为 128M
    • 推荐值为系统内存的 50% - 80%。
  • innodb_log_file_size:InnoDB存储引擎日志文件大小

    • 默认值为 48M
    • 推荐值为 256M - 2G,具体取决于系统 I/O 负载和事务吞吐量。
  • innodb_log_buffer_size:InnoDB存储引擎日志缓存大小

    • 默认值为 16777216(即 16M)
    • 建议将其设置为 innodb_log_file_size 的 25%。
  • innodb_thread_concurrency:InnoDB存储引擎线程并发度

    • 默认值为 0
    • 推荐值为 8 - 64,具体取决于应用程序的并发性质。
  • innodb_autoextend_increment:InnoDB存储引擎自动扩展增量

    • 默认值为 64M
    • 建议将其设置为 128M - 1G。
  • innodb_buffer_pool_instances:InnoDB存储引擎缓冲池实例数

    • 默认值为 1
    • 推荐值为 4 - 12,具体取决于系统内存的大小和 CPU 核心数量。
  • innodb_concurrency_tickets:InnoDB存储引擎并发票数

    • 默认值为 5000
    • 推荐值为 1000 - 10000,具体取决于应用程序的并发程度。
  • innodb_old_blocks_time:InnoDB存储引擎旧数据块保留时间,单位为毫秒

    • 默认值为 1000,推荐值根据应用程序的需求而定。
  • innodb_open_files:InnoDB存储引擎打开文件数

    • 默认值为 -1(表示自动调整大小)
    • 推荐值取决于您的系统负载和可用内存大小。一般来说,建议将innodb_open_files设置为足够大的值,以便InnoDB存储引擎能够同时处理多个表和索引文件。
  • innodb_stats_on_metadata:InnoDB存储引擎在获取表元数据时是否收集统计信息

    • 默认值为1(开启)
    • 对于大型数据库,建议将该参数设置为0(关闭),以减少在执行DDL操作时的开销。
  • innodb_file_per_table:是否为每个InnoDB表创建单独的数据文件

    • 推荐值为1
  • innodb_checksum_algorithm:InnoDB存储引擎数据校验算法

    • 默认值crc32
  • innodb_lock_wait_timeout:当一个事务等待锁定资源的时间超过此值时,将回滚事务。

    • 默认值为50秒
  • query_cache_size:查询缓存大小

    • 默认值为 0
    • 建议设置为0,MySQL缓存命中率不高,启用反而浪费时间
  • slow_query_log:是否记录慢查询日志

    • 默认值为 0
    • 建议将其设置为 1,以帮助诊断缓慢查询。
  • long_query_time:指定慢查询的时间阈值,单位为秒

    • 默认值为 10(秒),推荐值根据应用程序的需求而定。
  • lower_case_table_names:处理表名和数据库名时是否区分大小写

    • 默认值为 0
    • 推荐值为 1,以避免表名大小写不敏感导致的冲突问题。
  • table_open_cache:可以同时打开多少个表

    • 默认值为 2000
    • 推荐值为 4000 - 8000,具体取决于表的数量和大小。
  • autocommit:是否自动提交事务

    • 默认值为 1,推荐值根据应用程序的需求而定。
  • skip_name_resolve:是否对连接的客户端进行DNS解析

    • 默认值为 0
    • 推荐值为 1,以避免 DNS 查询的性能影响。
  • transaction_isolation:事务的隔离级别

    • 默认值为 REPEATABLE-READ
    • 推荐值为 READ-COMMITTED,以提高并发性能。
  • explicit_defaults_for_timestamp:如何处理TIMESTAMP列的默认值

    • 默认值为 0
    • 建议将其设置为 1,以防止时间戳列的插入错误。
  • symbolic-links:是否允许使用符号链接

    • 默认值为 1
    • 建议将其设置为 0,以提高安全性。

参考

/**
* Java实现DFA算法进行敏感词过滤
*/
public class SensitiveWordUtil {
private final TrieNode root;

public SensitiveWordUtil() {
root = new TrieNode();
}

/**
* 添加敏感词
*
* @param word 词
*/
public void addWord(String word) {
TrieNode node = root;
for (char ch : word.toCharArray()) {
node = node.getChildren().computeIfAbsent(ch, c -> new TrieNode());
}
node.setEndOfWord(true);
}

/**
* 是否在敏感词库中
*
* @param word 词
*/
public boolean containsWord(String word) {
TrieNode node = root;
for (char ch : word.toCharArray()) {
node = node.getChildren().get(ch);
if (node == null) {
return false;
}
}
return node.isEndOfWord();
}

/**
* 是否存在敏感词
*
* @param text 文本
*/
public boolean containsSensitiveWord(String text) {
for (int i = 0; i < text.length(); i++) {
if (containsWordStartingFromIndex(text, i)) {
return true;
}
}
return false;
}

private boolean containsWordStartingFromIndex(String text, int startIndex) {
TrieNode node = root;
for (int i = startIndex; i < text.length(); i++) {
char ch = text.charAt(i);
node = node.getChildren().get(ch);
if (node == null) {
return false;
}
if (node.isEndOfWord()) {
return true;
}
}
return false;
}

/**
* 将敏感词替换为*
*
* @param text 文本
*/
public String filterWords(String text) {
StringBuilder filteredText = new StringBuilder();
StringBuilder word = new StringBuilder();
TrieNode node = root;

for (int i = 0; i < text.length(); i++) {
char ch = text.charAt(i);
node = node.getChildren().get(ch);

if (node != null) {
word.append(ch);
if (node.isEndOfWord()) {
char[] chars = new char[word.length()];
Arrays.fill(chars, '*');
filteredText.append(new String(chars));
word.setLength(0);
node = root;
}
} else {
filteredText.append(text.charAt(i));
node = root;
word.setLength(0);
}
}

filteredText.append(word);
return filteredText.toString();
}

public List<String> findSensitiveWords(String text) {
List<String> sensitiveWords = new ArrayList<>();
for (int i = 0; i < text.length(); i++) {
int wordEndIndex = findWordEndIndex(text, i);
if (wordEndIndex != -1) {
String word = text.substring(i, wordEndIndex + 1);
if (containsWord(word)) {
sensitiveWords.add(word);
}
i = wordEndIndex;
}
}
return sensitiveWords;
}

private int findWordEndIndex(String text, int startIndex) {
TrieNode node = root;
int endIndex = -1;
for (int i = startIndex; i < text.length(); i++) {
char ch = text.charAt(i);
node = node.getChildren().get(ch);
if (node == null) {
break;
}
if (node.isEndOfWord()) {
endIndex = i;
}
}
return endIndex;
}

private static class TrieNode {
private final Map<Character, TrieNode> children;
private boolean endOfWord;

public TrieNode() {
children = new HashMap<>();
}

public Map<Character, TrieNode> getChildren() {
return children;
}

public boolean isEndOfWord() {
return endOfWord;
}

public void setEndOfWord(boolean endOfWord) {
this.endOfWord = endOfWord;
}
}

public static void main(String[] args) throws IOException {
SensitiveWordUtil filter = new SensitiveWordUtil();
filter.addWord("敏感词1");
filter.addWord("敏感词2");
filter.addWord("敏感词3");

String text = "这是一个包含敏感词1的测试文本,敏感词2也在其中。";

String filteredText = filter.filterWords(text);
System.out.println("修正后的内容:" + filteredText);

List<String> words = filter.findSensitiveWords(text);
System.out.println("包含以下敏感词:" + words);

double asDouble = Arrays.stream(new int[10000]).mapToLong(o -> {
long dfaStartTime = System.nanoTime();
filter.containsSensitiveWord(text);
return (System.nanoTime() - dfaStartTime);
}).average().getAsDouble();
System.out.println("DFA算法耗时:" + asDouble + "纳秒");

// 使用正则表达式查找敏感词
double asDouble1 = Arrays.stream(new int[10000]).mapToLong(o -> {
long regexStartTime = System.nanoTime();
boolean regexResult = text.matches(".*(敏感词1|敏感词2|敏感词3).*");
return (System.nanoTime() - regexStartTime);
}).average().getAsDouble();
System.out.println("正则表达式耗时:" + asDouble1 + "纳秒");

System.out.println(asDouble1 / asDouble);

}
}

jmeter官方版自带的图表不多,只有聚合报告、察看结果树等有限几个。但是Jmeter支持插件,我们可以在jmeter的官网上找到这些图表的插件。

现在我需要以下图标插件

— Response Times Over Time

— Transactions per Second

1、我们访问 https://jmeter-plugins.org/wiki/Start/

找到需要的插件。

2、找到后,点击对应的插件名字进入详情页

这里,我点击“Response Times Over Time”

进入插件的介绍页。

3、点击“Download”,进入搜索下载页面;

为什么是搜索下载页面呢?个人【不负责任猜测】是因为这个“Response Times Over Time”是图表的名称,但是对应的jar包却不一定是这个名字,所以官网就帮我们搜索对应的jar包,如下图

这里我就被坑了很多时间,点击红色框住的“ Download Versions”,一点反应都没有,

一定要点击紫色框住的版本号“2.0”,才可以下载。

4、下载后,我们解压后放到jmeter的安装目录的相同位置,如:

lib目录下的就放到apache-jmeter-3.0\lib下

ext下的就放到apache-jmeter-3.0\lib\ext\ 下,

放后后重新Jmeter,

5、重启后,可以添加对应的图表了: