1. ホーム
  2. Web制作
  3. ヒントとコツ

以前は、商品説明文は12pxでした。

2022-01-01 07:04:52

{強い 前置き

最近、あるプロジェクトを行う際、UIデザインのフォント10px、効果を見てみると、12pxに変更すると、まだフォントがかなり大きく、14pxに変更すると、フォントが大きくなり、法則を発見、元のブラウザは、ユーザーがフォントをはっきりと見るために、最小設定は12pxであることを理解しました。デザインは10px?

最終的な実現はこのようになります。

レンダリング

レンダリング

レンダリング

百度は、あなたがオンラインの神を使用するように言ったとき # Force to leave safe mode hadoop dfsadmin -safemode leave The parameter value is described as follows. enter - enters safe mode leave - forces the NameNode out of safe mode get - return information about whether safe mode is on wait - Wait until safe mode ends. は要件を満たせるのですが、使ってみるとdiv全体が拡大縮小されてしまい、要件を満たせませんでした。

逆に、赤い点と単語を2つのdivに置き、赤い点は幅と高さを制御し、フォントはtransform: scaleで縮小することで要件を満たすことができるのです。

具体的な実装コードは以下の通りです。

Database uses utf8 character set, change to latin1, rebuild table

cssのセクションです。

Solution.

First method.

Source code: FileSystem fs = FileSystem.get(URI.create(hdfsFilePath), config);

change to: FileSystem fs = FileSystem.newInstance(URI.create(hdfsFilePath), config);

The second method.

in the hdfs core-site.xml fs.hdfs.impl.disable.cache set to true
multiple datanode in the process of getFileSystem, due to the same Configuration, will get the same FileSystem.
If one datanode closes the connection after use, the other datanodes will have the above exception when they access

上記のフォントは14*0.8=11.2pxですが、必要に応じて調整することが可能です。

IEとFFには対応しませんので、別の互換方法をお伝えします。

Every time you submit a spark task to yarn, there is always an uploading resource (packaged spark jars and uploaded) to hdfs.

In bad cases, it gets stuck here for a long time.

17/01/13 17:21:47 INFO Client: Preparing resources 
for
 our AM container
17/01/13 17:21:47 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploadi
ng libraries under SPARK_HOME.
17/01/13 17:21:58 INFO Client: Uploading resource file:/tmp/spark-28ebde0d-c77a-4be3-8248-a6d3bcccc253/__spar
k_libs__7542776655448713545.zip -> hdfs:
//dipperCluster/user/hadoop/.sparkStaging/application_1484215273436_0

050/__spark_libs__7542776655448713545.zip
17/01/13 17:22:08 INFO Client: Uploading resource file:/tmp/spark-28ebde0d-c77a-4be3-8248-a6d3bcccc253/__spar
k_conf__8972755978315292177.zip -> hdfs:
//dipperCluster/user/hadoop/.sparkStaging/application_1484215273436_0

050/__spark_conf__.zip

Solution. 
Create a directory on hdfs. 
hdfs dfs -mkdir /user/hadoop/spark_jars

upload spark jars (spark1.6 only need to upload spark-assembly-1.6.0-SNAPSHOT-hadoop2.6.0.jar) 
hdfs dfs -put /opt/spark/jars/* /user/hadoop/spark_jars/ 
In spark's conf's spark-
default
.conf 
Add the configuration 
spark.yarn.jars hdfs:
//hserver1:9000/user/hadoop/spark_jars/*.jar

will be solved. The problem does not occur.

The reason is that the user operating hdfs does not have directory operation rights Solution. 1. check whether the user is using the wrong user, switch the corresponding permission to operate the user (if the program can be set by setting the system environment variables or set the System.setProperty("HADOOP_USER_NAME","username");) 2. in the hdfs configuration file, the dfs.permissions modified to False 3. for directory authorization: hadoop fs -chmod 777 /user/hadoop このプロパティは、幅と高さを定義できる要素のみを拡大縮小し、インライン要素には幅と高さがないため、インライン要素の幅と高さを定義するための regionserver.HRegionServer: ABORTING region server hadoop2,16020,1482823028618: Unhandled: Failed suppression of fs shutdown hook: org.apache. hadoop.fs.FileSystem$Cache$ClientFinalizer@43c542d5 RuntimeException: Failed suppression of fs shutdown hook: org.apache.hadoop.fs.FileSystem$Cache$ClientFinalizer@43c542d5 at org.apache.hadoop.hbase.regionserver.ShutdownHook.suppressHdfsShutdownHook(ShutdownHook.java:204) at org.apache.hadoop.hbase.regiononserver.ShutdownHook.install(ShutdownHook.java:84) at org.apache.hadoop.hbase.regionserver.HRegionServer.run(HRegionServer.java:882) at java.lang.Thread.run(Thread.java:745)

概要

上記はこの記事のすべての内容です、私はあなたの勉強や仕事のためのこの記事の内容は、特定の参照学習価値があることを願って、あなたが交換するメッセージを残すことができます質問がある場合は、BinaryDevelopのあなたのサポートに感謝します。