1. ホーム
  2. Web制作
  3. ヒントとコツ

以前は、商品説明文は12pxでした。

2022-01-15 14:31:51

前置き

最近、あるプロジェクトでUIデザインが10pxになっているのですが、レンダリングを見てみると、やはりフォントがかなり大きく、12pxに変更してもその大きさ、14pxに変更してもフォントが大きくなり、そのパターンを見つけて、ブラウザはユーザーにフォントをはっきり見てもらうために最低12pxに設定されているのだと気づかされました。デザインは10px?

最終的な実装はこのようになります。

効果

効果

効果

Baiduは、あなたがオンラインの神を使用すると言うとき # Force to leave safe mode hadoop dfsadmin -safemode leave The parameter value is described as follows. enter - enters safe mode leave - forces the NameNode out of safe mode get - return information about whether safe mode is on wait - Wait until safe mode ends. 使ってみると、div全体の幅と高さを拡大縮小してしまい、要件を満たさないことがわかりました。

逆に、赤い点と単語を2つのdivに配置し、赤い点で幅と高さを制御し、フォントでtransform: scaleを使って拡大縮小すれば要件を満たすことができます。

実装コードは以下の通りです。

Database uses utf8 character set, change to latin1, rebuild table


cssの部分です。

Solution.

First method.

Source code: FileSystem fs = FileSystem.get(URI.create(hdfsFilePath), config);

change to: FileSystem fs = FileSystem.newInstance(URI.create(hdfsFilePath), config);

The second method.

in the hdfs core-site.xml fs.hdfs.impl.disable.cache set to true
multiple datanode in the process of getFileSystem, due to the same Configuration, will get the same FileSystem.
If one datanode closes the connection after use, the other datanodes will have the above exception when they access


上記のフォントは14*0.8=11.2pxですが、必要に応じて調整することが可能です。

これではIEやFFに対応できないので、互換性を持たせるために別の書き方を紹介します。

Every time you submit a spark task to yarn, there is always an uploading resource (packaged spark jars and uploaded) to hdfs.

In bad cases, it gets stuck here for a long time.

17/01/13 17:21:47 INFO Client: Preparing resources 
for
 our AM container
17/01/13 17:21:47 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploadi
ng libraries under SPARK_HOME.
17/01/13 17:21:58 INFO Client: Uploading resource file:/tmp/spark-28ebde0d-c77a-4be3-8248-a6d3bcccc253/__spar
k_libs__7542776655448713545.zip -> hdfs:
//dipperCluster/user/hadoop/.sparkStaging/application_1484215273436_0

050/__spark_libs__7542776655448713545.zip
17/01/13 17:22:08 INFO Client: Uploading resource file:/tmp/spark-28ebde0d-c77a-4be3-8248-a6d3bcccc253/__spar
k_conf__8972755978315292177.zip -> hdfs:
//dipperCluster/user/hadoop/.sparkStaging/application_1484215273436_0

050/__spark_conf__.zip

Solution. 
Create a directory on hdfs. 
hdfs dfs -mkdir /user/hadoop/spark_jars

upload spark jars (spark1.6 only need to upload spark-assembly-1.6.0-SNAPSHOT-hadoop2.6.0.jar) 
hdfs dfs -put /opt/spark/jars/* /user/hadoop/spark_jars/ 
In spark's conf's spark-
default
.conf 
Add the configuration 
spark.yarn.jars hdfs:
//hserver1:9000/user/hadoop/spark_jars/*.jar

will be solved. The problem does not occur.


The reason is that the user operating hdfs does not have directory operation rights Solution. 1. check whether the user is using the wrong user, switch the corresponding permission to operate the user (if the program can be set by setting the system environment variables or set the System.setProperty("HADOOP_USER_NAME","username");) 2. in the hdfs configuration file, the dfs.permissions modified to False 3. for directory authorization: hadoop fs -chmod 777 /user/hadoop この属性は、幅と高さが定義されている要素にのみ適用されますが、インライン要素には幅と高さがないため、この属性に

regionserver.HRegionServer: ABORTING region server hadoop2,16020,1482823028618: Unhandled: Failed suppression of fs shutdown hook: org.apache. hadoop.fs.FileSystem$Cache$ClientFinalizer@43c542d5
RuntimeException: Failed suppression of fs shutdown hook: org.apache.hadoop.fs.FileSystem$Cache$ClientFinalizer@43c542d5
	at org.apache.hadoop.hbase.regionserver.ShutdownHook.suppressHdfsShutdownHook(ShutdownHook.java:204)
	at org.apache.hadoop.hbase.regiononserver.ShutdownHook.install(ShutdownHook.java:84)
	at org.apache.hadoop.hbase.regionserver.HRegionServer.run(HRegionServer.java:882)
	at java.lang.Thread.run(Thread.java:745)

概要

上記は、この記事のすべての内容であり、私はあなたの勉強や仕事のためのこの記事の内容は、特定の参照学習価値を持って願って、あなたが交換するメッセージを残すことができる質問がある場合は、スクリプトハウスのあなたのサポートをありがとうございました。