win7复制文件名字,多个文件一次提制

扫码手机浏览

  如果是公司文员的话,可能有时会需要列出一个文件夹里的所有文件的名字,通常的做法是一个一个复制粘贴,如果文件多的话,真的是太麻烦了,有个方法能让你在win7复制文件名字,多个文件一次提制。

  方法如下:

  1、点击Win7开始按钮,在搜索栏里面输入regedit,然后回车就能进入了windows7注册表。

  2、然后定位到:HKEY_CLASSES_ROOT\Folder\shell,在“shel”里面新建一个命名为“copylist”,接着在它下面再新建一个项,命名为“command”

  3、回到copylist项,双击右侧窗口的“默认”数值,在弹出窗口的“数据数值”一栏输入“复制文件列表”——这是右键菜单上的命令显示名称,可以随意更改。详情请登陆:装机大师官网

  4、接着,选中新建的command项,双击右侧窗口的“默认”数值,将其“数据数值”改为:cmd/c dir"%1"/b/a:-d/o:n clip。

  最后保存设置,退出注册表。再重启。

  此后,如果要复制一个文件夹里面的所有文件的名字的话,只需选中所有的文件,右键点击“复制文件列表”,再打开一个文本右击选择“粘贴”,就行了,win7复制文件名字,多个文件一次提制,真的好简单,你要不要试试。我们还可以在Windows 7右键菜单中添加"复制到文件夹"选项。

python爬虫列表存储重复数据如何解决

  才接触爬虫,看了网上一个中国大学排名的案列。案列只爬了一个网页,我就想做个修改。在链接页把所有链接爬下来,再把大学的各种排名列出来。写完代码发现,列表一直重复打印第一个链接里面的内容。求大佬告知如何解决。

  import requests

  import re

  import bs4

  from bs4 import BeautifulSoup

  def gethtml(url):

  try:

  r = requests.get(url, timeout = 30)

  r.raise_for_status()

  r.encoding = r.apparent_encoding

  return(r.text)

  except:

  return('fail')

  def selectlist(html , ulist , nlist , dic):

  soup = BeautifulSoup(html,'html.parser')

  #print(soup.prettify())

  soup_list = soup.find_all('div',{'class':'smallpic'})

  #print(soup_list)

  #获取各类排行的url链接

  ulinks = re.findall('href="(.*?)"',str(soup_list),re.S)

  for each in ulinks:

  ulist.append('))

  # print(each)

  #各类排行的名称

  nlinks = re.findall('span>(.*?)</span>',str(soup_list),re.S)

  for each in nlinks:

  nlist.append(each)

  # print(each)

  #将排行和链接存放在字典中

  for i in range(len(ulinks)):

  link = ulist[i]

  name = nlist[i]

  dic[name] = link

  def filllist(html,ulist):

  soup = BeautifulSoup(html , 'html.parser')

  for tr in soup.find('tbody').children:

  if isinstance(tr , bs4.element.Tag):

  tds = tr('td')

  ulist.append([tds[0].string,tds[1].string,tds[2].string])

  def printlist(ulist,num):

  tplt = '{0:^10}\t{1:{3}^10}\t{2:^10}'

  print(tplt.format('rank','university','city',chr(12288)))

  for i in range(num):

  u = ulist[i]

  print('{:^10}\t{:^6}\t{:^10}'.format(u[0],u[1],u[2]))

  def main():

  start_url = ''

  urllist = []

  #存放排行名称

  namelist = []

  #存放学校的名字

  unifor = []

  mixdictionary = {}

  html = gethtml(start_url)

  selectlist(html , urllist , namelist , mixdictionary)

  #print(urllist)

  for k in range(len(urllist)):

  linkhtml = gethtml(urllist[k])

  filllist(linkhtml,unifor)

  printlist(unifor,10)

  # with open('2.txt','a')as f:

  # f.write(str(unifor))

  main()

本文转载自互联网,如有侵权,联系删除

推荐文章